Усовершенствованные языковые модели, основанные на искусственном интеллекте, в последнее время произвели фурор в технологической отрасли. Такие платформы, как Google и Microsoft, стремятся интегрировать возможности искусственного интеллекта в свои поисковые системы после того, как революционная модель OpenAI ChatGPT проложила путь интеграции искусственного интеллекта для получения выдающихся результатов.
Модели искусственного интеллекта становятся все более сложными по мере того, как они решают задачи следующего уровня, такие как разговорный искусственный интеллект. Таким платформам требуются огромные вычислительные мощности для рабочих нагрузок искусственного интеллекта, машинного обучения и анализа данных. В большинстве этих языковых моделей используется современный чип NVIDIA A100, основанный на архитектуре Ampere, при этом чип выступает в качестве ядра платформы центра обработки данных NVIDIA.
«ИИ переживает переломный момент, готовясь к широкому внедрению во всех отраслях. От стартапов до крупных предприятий мы наблюдаем растущий интерес к универсальности и возможностям генеративного ИИ», — сказал Дженсен Хуанг, основатель и генеральный директор NVIDIA,.
На фоне возобновившегося спроса на свои чипы для искусственного интеллекта фирма недавно объявила о выручке за четвертый квартал, закончившийся 29 января 2023 года, в размере 6,05 млрд долларов, что на 2% больше, чем в предыдущем квартале.
Мощное решение для AI-задач
NVIDIA утверждает, что ее процессор A100 стоимостью 10 000 долларов обеспечивает до 20 раз более высокую производительность, чем предыдущее поколение, и может быть разделен на семь экземпляров графического процессора для динамической адаптации к изменяющимся требованиям.
Расширенные варианты доступны в версиях с памятью 40 ГБ и 80 ГБ. Фирма утверждает, что A100 80 ГБ «демонстрирует самую быструю в мире пропускную способность памяти — более 2 терабайт в секунду (ТБ/с) для запуска самых больших моделей и наборов данных».
По словам компании, ряд ее вычислительных решений обеспечивает «быстрое развертывание, управление и масштабирование рабочих нагрузок ИИ в современном гибридном облаке».
Партнерские отношения NVIDIA с поставщиками облачных услуг
Фирма сотрудничает с ведущими поставщиками облачных услуг, чтобы предлагать ИИ как услугу, которая обеспечивает предприятиям доступ к ведущей в мире платформе искусственного интеллекта NVIDIA. «Клиенты смогут задействовать каждый уровень ИИ NVIDIA — суперкомпьютер ИИ, программное обеспечение библиотек ускорения или предварительно обученные модели генеративного ИИ — как облачный сервис», — говорится в сообщении компании в блоге .
Фирмы, использующие их услуги, смогут задействовать суперкомпьютер с искусственным интеллектом NVIDIA DGX™ через облако NVIDIA DGX, которое «уже предлагается в облачной инфраструктуре Oracle, а Microsoft Azure, Google Cloud Platform и другие ожидаются в ближайшее время».
Сервис также позволит клиентам получить доступ к NVIDIA AI Enterprise для обучения и развертывания больших языковых моделей или других рабочих нагрузок ИИ. Кроме того, NVIDIA предложит свои настраиваемые модели ИИ NeMo и BioNeMo клиентам, которые «создают собственные модели генеративного ИИ и услуги для своего бизнеса».
Компания считает, что ее решения идеально подходят для таких приложений, как языковое моделирование, рекомендательные системы, сегментация изображений, переводы, обнаружение объектов, автоматическое распознавание речи, преобразование текста в речь и высокопроизводительные вычисления.
Будьте в курсе в удобном формате, присоединяйтесь: TG-канал и ВК
Бесплатная служба распространения новостей для научных организаций и стартапов
hello@technovery.com