| |
Проникновение больших языковых моделей (БЯМ) в редакционную практику ставит перед медиаиндустрией вопрос этической прозрачности. В статье исследуется, каким образом различные форматы маркировки контента, созданного с участием искусственного интеллекта, влияют на восприятие аудитории. Предметом исследования выступает доверие, воспринимаемая точность и готовность к шерингу у аудитории цифровых медиа. Основным методом выступает онлайн-эксперимент (N=468), построенный по схеме 3 (формат маркировки) × 2 (тематика текста) между субъектами. Результаты показывают, что развернутая маркировка, объясняющая распределение ролей между ИИ и человеком («ИИ использован для черновика, редактор проверил факты»), статистически значимо повышает доверие и готовность поделиться материалом по сравнению с краткой маркировкой («Создано с участием ИИ») или ее отсутствием. При этом эффект от отсутствия маркировки не отличается от эффекта краткой маркировки, что указывает на контрпродуктивность последней. Обнаружено, что влияние формата маркировки сильнее для тем, связанных с высокой субъективностью (культурная аналитика), чем для фактологических текстов (отчетность). На основе полученных данных формулируются практические рекомендации для редакций по внедрению этичной и эффективной коммуникации об использовании технологий искусственного интеллекта.
Ключевые слова:большие языковые модели, медиаэтика, доверие к медиа, маркировка контента, искусственный интеллект в журналистике, медиапсихология, экспериментальные методы в коммуникациях
|