[Алгоритмы, Машинное обучение, Исследования и прогнозы в IT, Искусственный интеллект] Исследователи изучают, как GPT-3 разбирает входящую почту

Автор Сообщение
news_bot ®

Стаж: 6 лет 9 месяцев
Сообщений: 27286

Создавать темы news_bot ® написал(а)
09-Фев-2021 12:31

Команда исследователей из Университетского колледжа Маастрихта опубликовала работу, посвященную использованию GPT-3 в качестве почтового менеджера. В работе исследуется, можно ли эффективно использовать GPT-3 и проигрывает ли модель человеку.
Авторы описали варианты использования модели в секторах страхования, энергетики и государственного управления. Исследователи отмечают, что модели нужно предоставить точные данные для обучения. Для решения этой проблемы требуется архитектура, которая позволяет GPT-3 анализировать содержание письма и оценивать, какая информация актуальна для ответа. Таким образом, нужно разработать решение для поиска по большим массивам неструктурированных ресурсов. При этом использование GPT-3 все же может быть экономически выгодным. Затраты на масштабирование системы будут практически нулевыми относительно другого ПО, хотя придется потратиться на дополнительное обучение системы. Главная проблема, связанная с использованием GPT-3, заключается в том, что модель может сгенерировать вводящий в заблуждение или даже оскорбительный текст. Если речь идет о публичной деятельности или работе компании, то это может привести к судебным искам. В настоящее время исследование продолжается, и пока делать конкретные выводы о работе системы рано. Обычный чат-бот, как и прежде, пока выглядит лучшей альтернативой.OpenAI представила модель машинного обучения GPT-3, обученную на 175 млрд параметров, в июне 2020 года. В отличие от предшественников GPT-2 и GPT-1 ее исходный код или обучающий набор данных решили не открывать. Модель уже попытались применить в медицинской сфере для общения с пациентами, но результаты эксперимента оказались неутешительными.Между тем создатели проекта GPT-Neo от EleutherAI решили воссоздать аналог GPT-3, но с открытым исходным кодом. Большую часть модели уже построили и обучили модели размера GPT-2, а также реализовали несколько экспериментальных архитектур.
===========
Источник:
habr.com
===========

Похожие новости: Теги для поиска: #_algoritmy (Алгоритмы), #_mashinnoe_obuchenie (Машинное обучение), #_issledovanija_i_prognozy_v_it (Исследования и прогнозы в IT), #_iskusstvennyj_intellekt (Искусственный интеллект), #_gpt3, #_pochta (почта), #_pisma (письма), #_generatsija_tekstov (генерация текстов), #_nlp_(natural_language_processing), #_issledovanie (исследование), #_algoritmy (
Алгоритмы
)
, #_mashinnoe_obuchenie (
Машинное обучение
)
, #_issledovanija_i_prognozy_v_it (
Исследования и прогнозы в IT
)
, #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Профиль  ЛС 
Показать сообщения:     

Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы

Текущее время: 22-Ноя 07:06
Часовой пояс: UTC + 5