[Алгоритмы, Машинное обучение, Искусственный интеллект] Блог GPT-3 за две недели посетили 26 тысяч человек. Его приняли за блог обычного автора
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Блог, который вел новый алгоритм написания текстов GPT-3 от OpenAI под вымышленным именем Liam Porr, за две недели посетили 26 тысяч человек. Никто не догадывался, что блог ведет не человек. В последнем посте интрига была раскрыта.
«Я думаю, что лучшие варианты использования алгоритмов лежат за пределами технологий. Я считаю, что у GPT-3 есть потенциал, чтобы изменить то, как мы пишем», — обратился к читателям автор эксперимента Мануэль Араос.
По его словам, за прошедшие две недели блог набрал 60 подписчиков, и только один из них догадался, что посты пишет не человек.
Самый первый пост из блога попал на первое место в Hacker News. Так вышло благодаря разоблачению от самого Араоса, который показал, что этот текст был написан GPT-3.
Извините, данный ресурс не поддреживается. :(
Кроме того, о возможном авторстве блога несколько раз упоминали специализированные порталы.
Араос рассуждает о том, как благодаря GPT-3 может измениться будущее онлайн-медиа. «Все, что мне нужно написать, — это хороший заголовок и вступление. Я мог бы написать пять за час. Другими словами, один хороший автор с помощью GPT-3 теперь может выполнять ту же работу, которую раньше выполняла команда создателей контента», — указывает он.
В блоге говорится, что у алгоритма есть и проблемы с логикой и повторами в тексте. Иногда появлялись и грамматические ошибки, а также алгоритм допускал искажение фактов (неверное авторство цитат). Однако незначительная человеческая правка может сделать такой текст качественным. Кроме того, GPT-3 больше подходит для создания эмоциональных текстов, нежели глубоко исследовательских. Эта технология позволит творческим редакциям сэкономить массу денег, утверждает автор.
В посте приводится простой расчет: в Buzzfeed Inc. работает 1700 сотрудников, а средняя базовая зарплата автора составляет $42 тыс. Всего в компании таких сотрудников может быть несколько сотен, к примеру, 400. Их годовой доход привязан к количеству текстов. GPT-3 может повысить эффективность авторов на 50%. Но при этом его захотят использовать только половина из них. Таким образом, аналогичный объем контента вместо 200 человек будут создавать 133. Команда, поддерживаемая GPT-3, сэкономила бы Buzzfeed около $3 млн в год.
Не исключено, что старые редакции будут сопротивляться такому нововведению, предположил автор. Однако могут появиться медиа нового типа, с небольшим штатом.
Араос также пояснил, что у него не было доступа к GPT-3, но он нашел аспиранта, который помогал в этой работе, отказавшись при этом передать ключи API. В заключение он попросил гендиректора OpenAI Сэма Альтмана дать ему доступ к GPT-3.
Подробный отчет о проделанной работе есть на GitHub.
OpenAI показала GPT-3, предназначенный для написания текстов на основе всего нескольких примеров, в конце мая. Архитектура алгоритма Transformer аналогична GPT-2, но модель обучали на 175 миллиардов параметрах или 570 гигабайтах текста. GPT-3 может отвечать на вопросы по прочитанному тексту, а также писать стихи, разгадывать анаграммы и осуществлять перевод. Ему достаточно от 10 до 100 примеров для обучения.
===========
Источник:
habr.com
===========
Похожие новости:
- [Python, Алгоритмы, GitHub, Веб-аналитика] Как проанализировать рынок фотостудий с помощью Python (3/3). Аналитика
- [Python, Алгоритмы] Идеальный график отпусков. Естественные алгоритмы. Поведение роя пчёл
- [Машинное обучение, Исследования и прогнозы в IT, Учебный процесс в IT] Совместный онлайн-митап команды Core ML VK и учёных Лаборатории машинного обучения ИТМО
- [Управление сообществом, Управление медиа, Социальные сети и сообщества] Завязывайте со своим «хабр не торт». Хабр — это феномен
- [Будущее здесь, Машинное обучение] Новая нейросеть поможет компьютерам кодировать самих себя
- [Big Data, Машинное обучение] Чек-лист перед калибровкой модели машинного обучения
- [Big Data, Машинное обучение] Разворачиваем модель машинного обучения с Docker – Часть 1 (перевод)
- [Законодательство в IT, Искусственный интеллект] Роспечать предложила создать сервис для распознавания фейковых новостей
- [Алгоритмы, Машинное обучение, Развитие стартапа, Робототехника] Роботы на карантине
- [Читальный зал, Робототехника, Научно-популярное, Искусственный интеллект, Будущее здесь] Проблемы правового регулирования искусственного интеллекта
Теги для поиска: #_algoritmy (Алгоритмы), #_mashinnoe_obuchenie (Машинное обучение), #_iskusstvennyj_intellekt (Искусственный интеллект), #_openai, #_gpt3, #_algoritmy (алгоритмы), #_blogi (блоги), #_teksty (тексты), #_media (медиа), #_generatsija_tekstov (генерация текстов), #_algoritmy (
Алгоритмы
), #_mashinnoe_obuchenie (
Машинное обучение
), #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 20:46
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Блог, который вел новый алгоритм написания текстов GPT-3 от OpenAI под вымышленным именем Liam Porr, за две недели посетили 26 тысяч человек. Никто не догадывался, что блог ведет не человек. В последнем посте интрига была раскрыта. «Я думаю, что лучшие варианты использования алгоритмов лежат за пределами технологий. Я считаю, что у GPT-3 есть потенциал, чтобы изменить то, как мы пишем», — обратился к читателям автор эксперимента Мануэль Араос. По его словам, за прошедшие две недели блог набрал 60 подписчиков, и только один из них догадался, что посты пишет не человек. Самый первый пост из блога попал на первое место в Hacker News. Так вышло благодаря разоблачению от самого Араоса, который показал, что этот текст был написан GPT-3. Извините, данный ресурс не поддреживается. :( Кроме того, о возможном авторстве блога несколько раз упоминали специализированные порталы. Араос рассуждает о том, как благодаря GPT-3 может измениться будущее онлайн-медиа. «Все, что мне нужно написать, — это хороший заголовок и вступление. Я мог бы написать пять за час. Другими словами, один хороший автор с помощью GPT-3 теперь может выполнять ту же работу, которую раньше выполняла команда создателей контента», — указывает он. В блоге говорится, что у алгоритма есть и проблемы с логикой и повторами в тексте. Иногда появлялись и грамматические ошибки, а также алгоритм допускал искажение фактов (неверное авторство цитат). Однако незначительная человеческая правка может сделать такой текст качественным. Кроме того, GPT-3 больше подходит для создания эмоциональных текстов, нежели глубоко исследовательских. Эта технология позволит творческим редакциям сэкономить массу денег, утверждает автор. В посте приводится простой расчет: в Buzzfeed Inc. работает 1700 сотрудников, а средняя базовая зарплата автора составляет $42 тыс. Всего в компании таких сотрудников может быть несколько сотен, к примеру, 400. Их годовой доход привязан к количеству текстов. GPT-3 может повысить эффективность авторов на 50%. Но при этом его захотят использовать только половина из них. Таким образом, аналогичный объем контента вместо 200 человек будут создавать 133. Команда, поддерживаемая GPT-3, сэкономила бы Buzzfeed около $3 млн в год. Не исключено, что старые редакции будут сопротивляться такому нововведению, предположил автор. Однако могут появиться медиа нового типа, с небольшим штатом. Араос также пояснил, что у него не было доступа к GPT-3, но он нашел аспиранта, который помогал в этой работе, отказавшись при этом передать ключи API. В заключение он попросил гендиректора OpenAI Сэма Альтмана дать ему доступ к GPT-3. Подробный отчет о проделанной работе есть на GitHub. OpenAI показала GPT-3, предназначенный для написания текстов на основе всего нескольких примеров, в конце мая. Архитектура алгоритма Transformer аналогична GPT-2, но модель обучали на 175 миллиардов параметрах или 570 гигабайтах текста. GPT-3 может отвечать на вопросы по прочитанному тексту, а также писать стихи, разгадывать анаграммы и осуществлять перевод. Ему достаточно от 10 до 100 примеров для обучения. =========== Источник: habr.com =========== Похожие новости:
Алгоритмы ), #_mashinnoe_obuchenie ( Машинное обучение ), #_iskusstvennyj_intellekt ( Искусственный интеллект ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 20:46
Часовой пояс: UTC + 5