AI И ЖУРНАЛИСТСКАЯ ЭТИКА: КАК И КОГДА МЕДИА ИСПОЛЬЗОВАТЬ НЕЙРОСЕТИ БЕЗ РИСКА ПОТЕРЯТЬ РЕПУТАЦИЮ
19 June, 2024 - 11:11
AI И ЖУРНАЛИСТСКАЯ ЭТИКА: КАК И КОГДА МЕДИА ИСПОЛЬЗОВАТЬ НЕЙРОСЕТИ БЕЗ РИСКА ПОТЕРЯТЬ РЕПУТАЦИЮ
Автор: Администратор
174
 

 

«Проверять информацию — это задача журналиста, а не AI», — говорит Злата Понировская, руководитель образовательных программ в Prague School Media и советует использовать искусственный интеллект только в качестве ассистента для своей работы.

Советы о том, как этично использовать нейронные сети в редакции, Злата дала в своей сессии «AI и журналистская этика» во время контент-лаборатории MediaLab от Internews, которая прошла в Душанбе с 1 по 3 июня.

Создайте этический кодекс по использованию AI в редакции

«У вас есть прозрачные инструкции работы с AI, понятные и персоналу, и аудитории? А когда появятся?» — Спрашивает Злата и объясняет, что большинство крупных мировых медиа уже имеют свод этических правил, которые регулируют взаимодействие журналистов с нейросетями.

Например, в прошлом году The Guardian опубликовала правила по использованию искусственного интеллекта в редакции на своем сайте.

В этих правилах редакция отмечает, что инструменты нейросетей интересны, но в настоящее время ненадёжны.

«В нашей журналистике, в нашей маркетинговой, творческой и инженерной работе нет места ненадёжности. Простыми словами это означает, что использование AI требует человеческого контроля. Мы будем стремиться использовать инструменты нейросетей в редакционных целях только там, где это способствует созданию и распространению оригинальной журналистски», — говорится в этих правилах.

 AI не должен выполнять работу журналиста, но он может быть ассистентом

Злата объясняет, что нейросети не могут выполнять за журналистов их работу и генерировать конечный контент, проводить фактчекинг и т. д. Дело в том, что языковые модели всё еще выдают многочисленные ошибки, а также имеют склонность к галлюцинациям (галлюцинации в AI — специальный термин, который означает вымышленные ответы нейросети, не имеющие ничего общего с реальностью — прим. ред.).

 

При этом Злата советует использовать искусственный интеллект в качестве ассистента при работе журналиста. Например, промпты во время работы журналиста и AI могут выглядеть так:

  • Пожалуйста, помоги мне проверить следующую статью. Перечисли ключевые факты, утверждения или заявления, которые необходимо проверить.  Вот ссылка.
  • Дай гиперссылки на все источники, которые ты использовал для своих утверждений.
  • Проанализируй платформы и мнения экспертов, чтобы оценить точность их утверждений. Учитывай возможную предвзятость источников информации.
  • Объясни методологию, по которой ты работаешь.
  • Дай советы по подходу к проверке фактов.

Вся информация, которую журналист добывает с помощью нейросетей, нуждается в тщательной проверке и анализе.

Люди все ещё определяют манипуляции в медиа эффективнее, чем нейросети

Результаты исследования 2024 года, которое провела группа американских ученых,  бросают вызов широко распространённому мнению о том, что обычные люди ограничены в способности обнаруживать манипуляции в медиа, например, дипфейки. Исследования показывают, что алгоритмы создания дипфейков генерируют заметные артефакты, и люди, особенно когда работают коллективно, могут идентифицировать манипуляции с видео с той же точностью, что и модели.

Злата объясняет, что фейковые фото и видео генерируются чаще, чем фейковый текст. Она также обращает внимание на то, что от медиа в большей степени требуется не опровержение фейка, а подтверждения достоверности. И напоминает, что детекторы идентификации изображений не работают.

Учитывая наличие следов, которые оставляет AI при генерировании дипфейков, Злата делится советами по их проверке:

  • Проверять в других источниках;
  • «Гуглить» цитаты и то, что сказано;
  • Обращать внимание на детали:
    • Контекст, понимание что мог говорить персонаж, что не мог;
    • Мимику;
    • Характерный шум у сгенерированного аудио;
    • Неправдоподобный голос (обращать внимание на голос оригинала);
    • Отсутствия придыхания в фейках;
    • У людей один темп речи, в фейках темп ускоряется.

Нейросетям нельзя передавать конфиденциальную информацию, включая имена и контакты пользователей

Большие языковые модели работают над безопасным хранением данных и уже предлагают настройки, благодаря которым можно обезопасить своё общение с ними. Но несмотря на это с AI действует тот же принцип, что и с интернетом: что попало в сеть, то там и осталось. Злата советует не передавать конфиденциальную информацию AI, особенно если она содержит личные данные людей.

Данная публикация подготовлена по материалам контент-лаборатории MediaLab, которая стала возможной благодаря помощи американского народа, оказанной через Агентство США по международному развитию (USAID). Internews несёт ответственность за содержание публикации, которое не обязательно отражает позицию USAID или Правительства США.

USAID является ведущим агентством международного развития и катализатором достижения результатов в области развития. Для получения дополнительной информации посетите:https://www.usaid.gov/central-asia-regional и страницу USAID/Центральная Азия в Facebook:https://www.facebook.com/USAIDCentralAsia

 

Источник: Newreporter.org