Top.Mail.Ru
Колонки

«Robotник» копирайтера: какие задачи можно доверить ChatGPT, а что лучше сделать самому

Колонки
Константин Рудов
Константин Рудов

Главный редактор SMMplanner

Анастасия Удальцова

Ажиотаж вокруг ChatGPT и ChatGPT Plus набирает обороты — «визионеры» предрекают фундаментальные изменения на рынках копирайтинга, онлайн-психотерапии, юридического консультирования, техподдержки и SEO. И даже в академических кругах начали задумываться о потенциале этой технологии. 

Главный редактор SMMplanner Константин Рудов согласен, что мир будущего скоро явит себя — но не в том виде, в каком многие ожидают. В колонке он разобрал основные мифы вокруг нейросетей и ИИ и поделился мыслями, кому они действительно помогут, а кому могут принести убытки.
«Robotник» копирайтера: какие задачи можно доверить ChatGPT, а что лучше сделать самому

 

Мифы о ChatGPT, в которые все поверили

Основных предсказаний два:

  1. Мы теперь сумеем срезать углы, заставив трудиться GPT-4 вместо себя при смешных затратах $20+ в месяц, а конечный продукт продадим «по рынку».
  2. У GPT-3.5 не очень получилось, но вот ChatGPT Plus c GPT-4 под капотом уж точно вышвырнет на мороз толпы копирайтеров, сеошников, онлайн-психотерапевтов. Спасайся кто может.

Оба утверждения более чем сомнительны.

Попробуем разобраться с этим на примере копирайтинга и для начала рассмотрим, откуда, собственно растут уши.

  1. На чрезмерно оптимистичный взгляд по поводу потенциальной выгоды от использования ChatGPT Plus поработали сотни частных и ненаучных по дизайну экспериментов, проведенных участниками отрасли контент-маркетинга. Волна сначала поднялась в США, затем охватила весь остальной мир, который в теме.
  2. С ChatGPT, пыхтящим на «движке» GPT-3.5, успели поработать ученые. Они провели несколько экспериментов и получили отчасти обнадеживающие, а отчасти пугающие результаты. Об этом протрубили СМИ, их сообщения «перепели» другие СМИ и блогеры — конечно же, во многом переврав.

И пошел по долам, по горам миф о всемогущих языковых моделях, которые якобы пишут неотличимо от человека с недоступной кожаному мешку скоростью.

Что характерно, даже частные, не претендующие на научность эксперименты обнаружили, что ChatGPT (GPT-3.5) может выдумывать якобы академические источники информации для подкрепления своих утверждений. И заявлять о фактах, которых никогда не существовало в действительности.


Но чем же тогда языковая модель смогла впечатлить ученых?

А вот чем: GPT-3.5 неплохо умеет имитировать некоторые стили, в том числе стиль научных публикаций — кратких, суммирующих предисловия к научным статьям, которые в академических кругах принято именовать Abstract.


Один из экспериментов показал: фальшивые академические аннотации частично одурачили реальных ученых.

Коварные исследователи из Северо-Западного и Чикагского университетов (оба в США) «скормили» ChatGPT десять образцов предисловий к научным работам по медицине и поручили сгенерировать собственные. Затем они представили людям-рецензентам результаты, перемешав их с настоящими аннотациями. Рецензенты (напомним, это люди с солидным научным бэкграундом) сумели распознать лишь 68% пустышек. И что самое жуткое — пометили как кибер-фальшивки 14% настоящих текстов.


Важный факт: GhatGPT плохо справился с оформлением разделов Abstract — только 8% его текстов отвечали требованиям, которые предъявляют научные журналы.


Вместе с тем рецензенты сообщили, что распознать фальшивки было «удивительно сложно».

Итак, что мы имеем на выходе?

32% «научных» текстов от GPT-3.5 были сносно оформлены и прокатили за настоящие. Крутой результат, но для ведения контентного бизнеса — сомнительный, к чему мы еще вернемся.

А пока давайте уже поймем, чем на самом деле занимаются языковые модели, построенные на основе сетей из нейронов, имитирующих человеческие.

 

Они просто предсказывают, какое слово должно пойти дальше, исходя из контекста

Все итерации GPT от Open AI и их аналоги от других разработчиков занимаются словесными предсказаниями. Языковые модели угадывают, каким пойдет следующее слово (или фрагмент слова) с учетом предыдущего контекста.

  • Нейросети ничего не знают ни о каких фактах, ни в чем не разбираются, не понимают, что такое email-рассылка, описание товара в интернет-магазине или статья в лайфстайл-блоге.
  • Нейросетевой «психотерапевт» ни в зуб ногой в психотерапии. Он лишь обучен на огромном массиве психотерапевтических текстов. Он угадывает, какие слова надо выводить на экран, когда вы ему описываете свою драму отношений с «холодной матерью» — то есть, задаете контекст.
  • Нейросетевой «копирайтер» ни грамма не смыслит ни в какой теме — он предсказывает, какой текст должен появиться, когда вы ему повелеваете «Опиши основные типы краски для волос и объясни, какие вредные, а какие не очень».

Чтобы получить от нейросетей даже несложные утилитарные результаты в том же контент-маркетинге, требуется давать им детально проработанные инструкции. Они могут значительно сэкономить время, но без индивидуального допиливания каждого запроса дополнительными вопросами никак не обойтись, если нужен хороший результат.

Монструозная GPT-4 действительно успешно «сдала» американские стандартизированные тесты для поступления в колледж и юридические школы, а также экзамен на статус адвоката. Но она ничего не сдавала на самом деле.


Читайте по теме: «Люди думали, что это полное безумие»: главное из интервью CEO OpenAI Сэма Альтмана


Языковой модели абсолютно наплевать на суть предмета, она вообще не думает никаким образом и не знает правильных ответов ни на один вопрос. Отсюда «необъяснимые» косяки, которые часто допускает мощная GPT-3.5 и, скорее всего, будет допускать GPT-4.

У ученых их принято называть «галлюцинациями искусственного интеллекта», или просто «бредом ИИ». Например, языковая модель может уверенно утверждать, что годовой доход Tesla составляет $13,6 млрд, основываясь на том, что это число правдоподобно. При этом массив данных, на которых обучалась нейросеть, может содержать иные числа или вообще не хранить никакой информации по теме. Но ИИ будет упорно настаивать на своей оценке.

Галлюцинации ИИ были обнаружены в 2022 году как раз при использовании GPT-3. Как правило, они выглядят как правдоподобно звучащая ложь, встроенная в сгенерированный текст.


Читайте по теме: Главного редактора Die Aktuelle уволили за сгенерированное ИИ «интервью» Шумахера


Языковые модели типа GPT-3 выдают каждое следующее слово на основе последовательности предыдущих слов (включая те, которые ИИ сам же ранее сгенерировал в текущем ответе). Это нередко вызывает каскад галлюцинаций — по мере того, как ответ становится длиннее.

«Но позвольте», — скажет читатель, — «С этим же вообще нельзя иметь дела, это опасно для бизнеса!» Не совсем.

 

В какой копирайтерской работе нейросети действительно могут помочь

Использование языковых моделей позволяет ускорить работу над вспомогательными текстами и качественнее писать их людям со слабыми копирайтерскими навыками или низкими природными способностями к созданию текстов. Этому есть свежие экспериментальные доказательства.

Сотрудники знаменитого Массачусетского технологического института (MIT) набрали 444 опытных специалиста с высшим образованием:

  • маркетологов,
  • соискателей грантов,
  • консультантов,
  • аналитиков данных,
  • специалистов по персоналу,
  • менеджеров.

Им поручили выполнить два письменных задания (на 20-30 минут работы каждое), характерных для их профессий. Спецы при этом подтвердили, что задачи реалистичны — похожи на те, что встают перед ними в реальной работе.

Половине из испытуемых позволили для выполнения второго задания использовать ChatGPT. Условие не было обязательными — можно было отказаться. Остальные 50% участников исследования работали без помощи ИИ и были контрольной группой.


Читайте по теме: Битва нейросетей: Midjourney, DALL-E, Kandinsky и «Шедеврум»


Оценивала качество выполненных работ другая группа приглашенных специалистов. И делала это вслепую, не зная, какие именно тексты созданы с применением GPT, а какие без.

Результаты эксперимента вкратце таковы:

  1. 81% спецов из первой группы выбрали вариант использовать помощь ChatGPT. Это соответствует оценке полезности приложения в 4,4 балла из 5 возможных.
  2. Среднее время выполнения второго задания в экспериментальной группе сократилось на 10 минут. Исследователи использовали для описания полезности применения ИИ величину «возможный заработок специалиста в минуту». По этому показателю экспериментальная группа значительно выиграла у контрольной.
  3. Подопытные из экспериментальной группы, получившие низкие оценки за первое задание (выполненное без помощи ИИ), за второе (с помощью ИИ) удостоились повышения оценок и выполнили его быстрее, чем первое.
  4. Подопытные, получившие высокие оценки за первое задание не выиграли в качестве, выполняя второе задание с подсказками ИИ, но выиграли во времени.

Ученые делают вывод: люди и ChatGPT, работая вместе, могут производить больше, чем была бы сумма работы людей самих по себе и работы нейросети самой по себе.

В переводе на общепонятный язык это означает, что использование ИИ действительно дает прирост производительности.

Что любопытно, в процессе эксперимента 68% специалистов вообще не правили черновики, которые им выдала нейросеть, и отправляли их в качестве законченных работ. Мало того, не нашлось доказательств тому, что редактирование текстов, предложенных ИИ, как-то повлияло на уровень оценок со стороны специалистов-оценщиков.

Экспериментаторы из MIT подчеркивают: «ChatGPT может быть особенно полезен тем, у кого слабы навыки письма и общения по сравнению с другими навыками». Они считают, что внедрение языковых моделей в повседневную работу человека может повлиять на рынок труда. Например, позволит креативным людям с сильным навыком генерирования идей, но слабым навыком к написанию текстов выбирать ранее недоступные им профессии.


Результаты эксперимента могут шокировать (А-а-а! ИИ нас все-таки заменит!), но только если не знать, какие именно задания выполняли испытуемые. А были они очень средненькими по сложности. Скажем, не требовали от исполнителя никаких контекстно зависимых знаний.


Те из участников эксперимента, кто в обычной жизни отказывается от помощи ИИ, сообщили учеными причины: тексты, над которыми приходится работать, особенным образом адаптированы под клиентов. В них часто включена информация «в реальном времени», к которой ИИ пока не может иметь доступа и специфических или даже уникальных сведений об их продукте.

Грубо говоря, GPT-3.5 может хорошо справляется с текстами, для написания которых не нужно ничего знать и понимать. Сурово назовем их «бла-бла-бла». Как только у авторов возникает потребность использовать контекстно зависимые знания, ИИ становится бесполезен.

 

Резюме: стоит ли привлекать ИИ для вспомогательных задач, SEO-статей и развлекательного контента?

Пока языковые модели годятся лишь для быстрого и дешевого производства пристойного «бла-бла-бла». Скажем, для производства SEO-текстов, заточенных под низкочастотные поисковые запросы.

Сегодня заказывать такие статьи авторам-людям невыгодно: гонорар в среднем составляет 6 тысяч рублей за штуку, и окупить эти затраты при любой модели монетизации трафика, по капле капающего с низкочастотников, крайне проблематично.

Однако использование копирайтерами ChatGPT в перспективе может позволить им в два-три раза ускорить свою работу над SEO-статьями и на первых порах иметь от этого серьезную выгоду (для высоко- и среднечастотных запросов).


Читайте по теме: Пользователи Twitter запустили соревнование: как можно больше заработать с GPT-4


Такое положение дел продлится недолго: авторы неминуемо и массово начнут демпинговать. Заказчики это оценят по достоинству, но для самих копирайтеров выгода платить за доступ к ChatGPT или аналогам заметно снизится.

Стоимость сносного SEO-текста может упасть в три-четыре раза. И это сделает возможным монетизацию низкочастотных запросов. Интернет снова изменится. Правда, не факт, что в лучшую сторону. Тем не менее, копирайтеры и их заказчики при таком развитии событий сумеют значительно выиграть в производительности и что-то сверх того — в деньгах. Упомянутый ранее «возможный заработок специалиста в минуту» действительно может вырасти.

Не исключено, что совместно с GPT и другими языковыми моделями будет выгодно генерировать развлекательный контент — для SMM или наполнения жанрово близких сообществ, Telegram-каналов.

Что же касается текстов, которые влияют на решения, принимаемые людьми в B2C и особенно в B2B (контент-маркетинг, аналитика), то допускать к их созданию нейросети крайне опасно.

Там, где требуются доказательная аргументация, анализ, фактчекинг, умение различать качество источников, делать выводы и прогнозы, современным языковым нейросетям делать нечего:

  • ИИ «галлюцинирует»,
  • выдумывает фактоиды и фальшивые источники информации,
  • не способен воспринимать действительный информационный фон (например, каждая модель GPT обучена на данных, актуальных на какую-то определенную дату, и они стремительно устаревают).

В статье, созданной нейросетью, автор обязан проверять каждую закорючку, факт, цифру, потому что современный ИИ обязательно подведет. Ведь он всего лишь предсказательная словесная машина, а никакой не «интеллект».

Безответственное использование нейросетей для производства действительно важных текстов маркетологами, редакциям бренд-медиа и копирайтерами может привести к серьезным репутационным потерям у бизнеса. А за ними, как правило, следуют потери вполне себе материальные.

 

Обложка статьи сгенерирована нейросетью Midjourney

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 ChatGPT обучали работники из Африки — теперь чат-бот повторяет их языковые привычки
  2. 2 Копирайтер VS нейросеть: пишем текст и теряем заказчиков
  3. 3 Программирование 2.0: как ИИ-ассистенты упрощают разработку
  4. 4 Руководство по использованию ИИ для повышения KPI команды
  5. 5 Сколько сегодня можно заработать на контенте: интервью с основателем креативной редакции «Рыба»
EdTech: карта российского рынка
Все компании и инвесторы в области образовательных технологий
Перейти