Искусственный интеллект и контент-маркетинг: исследователи из OpenAI научили машину писать связные тексты
11.11.2019
Некоммерческая исследовательская лаборатория OpenAI, одним из основателей которой является Илон Маск, создала нейронную сеть, способную сочинять тексты на заданную тематику. Что ж, искусственный интеллект добрался в том числе до контент-маркетинга. Изучаем и делаем ставки, удастся ему стать новым Хемингуэем или нет.
Авторы полной версии нейросети GPT-2 из компании OpenAI, демо-релиз которой состоялся в феврале 2019 года, заявили, что их разработка способна самостоятельно писать связные тексты по заданным параметрам. Для этого достаточно предоставить ИИ вводный тезис, состоящий хотя бы из одной фразы, и он создаст текст «беспрецедентного качества». По тезису GPT-2 определит, в каком стиле и контексте он должен быть написан.
Разработчики утверждают, что нейросеть научилась этому, проанализировав более 8 миллионов веб-страниц. Она сочиняет предложения на основе этих данных, подбирая наиболее подходящее слова.
Полная версия нейронной сети GPT-2 умеет:
- придумывать новости;
- писать статьи;
- сочинять рассказы и стихотворения;
- и даже создавать код.
Сложно точно передать, как устроен ИИ GPT-2, но ученые удивлены тому, как часто этой нейросети удается создавать интеллектуальный текст, хотя и предостерегают от восприятия всего, что делает GPT-2, как проявления интеллектуальной деятельности. На самом деле пока ее возможности достаточно ограничены.
Работу нейросети можно проверить самому на сайте TalktoTransformer.com. Необходимо написать отрывок текста, который продолжит искусственный интеллект. Также можно выбрать готовую тему из выпадающего списка. В нем есть такие варианты, как «рецепт приготовления блюда», отрывок из «Властелина Колец», «html-код». «Transformer» — это компонент архитектуры машинного обучения, используемый при создании GPT-2.
Ранее в лаборатории OpenAI опасались, что их разработку могут использовать со злым умыслом, чтобы генерировать фишинговые сообщения, спам, неправдивые новости и даже экстремистские лозунги, как это было в начале 2019 года, когда другой ИИ-алгоритм создавал фейковые фильмы для взрослых со знаменитостями. Однако позже исследователи заявили, что их опасения не подтвердились, а «явных доказательств неправомерного использования не было».