Новая разработка китайских ученых представляет собой модель глубокого обучения - метод машинного обучения, позволяющий создавать алгоритмы, решающие несколько различных задач. Нейросеть включает в себя 1,75 триллиона параметров. Это в 10 раз больше, чем в сети GPT-3 от лаборатории Open AI. Wu Dao также превосходит по мощности нейросеть Switch Transformers от Google, которая появилась в январе 2021 года.
Китайская нейросеть мультимодальна - она может выполнять множество разнородных задач. Wu Dao 2.0 пишет эссе, стихи и двустишия на традиционном китайском языке, распознает изображения и генерирует их по словесному описанию, имитирует речь и создает кулинарные рецепты.
"Подобные модели и суперкомпьютеры послужат сырьевой базой для приложений будущего", - заявила председатель академии профессор Джан Хонъянг.
Для обучения нейросети команда ученых использовала почти пять терабайтов изображений и текстов, включая 1,2 терабайта текстов на китайском и английском языках.
Ранее нейросеть превратила эмодзи в человеческие лица.