За якими правилами грати з ШІ
Оглядаємо, що можна запозичити з уже опублікованих рекомендацій для вашої редполітики
Усе більше видань і організацій затверджують власні політики використання штучного інтелекту в роботі. Ми вирішили вибрати з них найважливіші й найпопулярніші положення для тих із вас, хто збереться написати свій документ.
Кого можна взяти за приклад
Серед закордонних медіа такі політики вже є у Wired, BBC, Reuters, The Guardian, CNET, Associated Press. Також «Репортери без кордонів» і 16 партнерських організацій оприлюднили Паризьку хартію щодо використання штучного інтелекту в журналістиці. У ній визначили етичні принципи захисту інформації в епоху ШІ.
Із українських медіа свою політику опублікувала «Українська правда». Її розробила редакторка англомовної версії УП Аліна Полякова. Політику вирішили оприлюднити перед випуском подкасту, який переозвучували з української на англійську за допомогою ШІ. Але співробітники УП, за словами Полякової, тестують можливості штучного інтелекту і для інших завдань.
Крім того, Міністерство цифрової трансформації України оприлюднило розроблені разом із Лабораторією цифрової безпеки та Експертним комітетом із питань розвитку ШІ рекомендації для журналістів із використання ШІ. До формування рекомендацій також долучилася Нацрада з питань телебачення та радіомовлення, Міністерство культури та інформаційної політики, Центр демократії та верховенства права й представники профільних державних органів і громадських організацій.
Які правила використання штучного інтелекту для журналістів можна встановити
Є кілька основних тематичних груп.
Етика
Політики наголошують: використання й розвиток систем ШІ в медіа мають відбуватися в межах правил журналістської етики: правдивості й точності, неупередженості, незалежності, ненанесення шкоди, підзвітності, поваги до приватного життя й конфіденційності джерел тощо.
Також, оскільки деякі системи ШІ схильні відтворювати та примножувати стереотипи й упередження щодо певних груп людей, треба стежити, щоби кінцевий продукт не дискримінував нікого й не поширював ці упередження далі.
Людський контроль
Редакція відповідає за кожну одиницю контенту, яку випускає, навіть якщо частину згенерував ШІ. Тож люди, а не мовні моделі чи інші системи, мають ухвалювати рішення як у довгострокових стратегіях, так і в щоденних редакційних завданнях. Зокрема, редакції відмовляються від редагування за допомогою ШІ, адже той може виправити граматичні помилки, але перекрутити зміст чи факти.
Багато укладачів правил визнають, що ШІ може посилити медіа, наприклад, у пошуку інформації й генеруванні ідей. Але журналістам і редакторам необхідно перевіряти отриману інформацію, зображення й історії на те, чи не згенеровані (або спотворені) вони ШІ, перш ніж включити їх у свої матеріали.
Публікувати чи ні?
Частина медіа взагалі відмовляється від публікації згенерованого ШІ контенту, за винятком випадків, коли треба показати читачам зразки згенерованого тексту чи зображення. Частина наголошує, що не варто вводити авдиторію в оману, проводячи за допомогою ШІ реконструкцію подій чи генеруючи зображення, що імітують реальних публічних осіб. Краще шукати й використовувати автентичні кадри.
Також є «сіра зона» в питаннях авторського права на твори ШІ й на дані, на яких моделі навчали. І через це медіа утримуються від публікації до врегулювання юридичних нюансів, а також блокують вебсканерам компаній ШІ доступ до своїх сайтів — щоби ті не навчали свої моделі безплатно на контенті медіа. У деяких рекомендаціях наголошують, що треба перевірити авторські права на згенерований контент і забезпечити їхнє дотримання. Але відповідальність за публікацію в будь-якому разі нестиме редакція.
Маркування
Усі політики так чи інакше наголошують на необхідності прозорого маркування згенерованого ШІ контенту чи розкриття використання певних систем у роботі редакції. Це може бути напис «Матеріал чи зображення згенеровано з використанням штучного інтелекту» або водяні знаки, які вже починають розробляти для цього деякі компанії. На сайті медіа можна створити вікно, що спливає, панель або окрему сторінку, що інформуватиме, які системи ШІ використовують і з якою метою,й демонструватиме технічну документацію.
Дані й персоналізація
Деякі редакції своїми політиками зобов’язують співробітників забезпечити захист персональних даних — своїх, авдиторії та джерел інформації. Рекомендують не ділитися з ШІ конфіденційними матеріалами, а інколи — навіть уривками з неопублікованих історій.
Якщо редакція використовує штучний інтелект для персоналізованого добору контенту, то в політиці варто згадати необхідність регулярних нагадувань про це авдиторії, а на самому сайті — додати можливість вимкнути персоналізацію. Під час розроблення таких алгоритмів — не допускати, щоби вони поширювали пропаганду й дезінформацію для всіх, а також потенційно шкідливий, небезпечний або чутливий контент неповнолітній аудиторії.
У чому мінуси й підводні камені
Наразі рекомендації журналістських чи державних органів мають добровільний характер. Розробники покладаються на відповідальність самих медіа й журналістів, але поки не мають інструментів карати тих, хто не дотримується подібних правил. Максимум, чого можна очікувати, — це звільнення медійників, які ввели читачів в оману, але й це — на совісті редакції.
Якщо говорити про Паризьку хартію, то Всесвітня асоціація видавців новин вирішила не приєднуватися до неї через нереалістичні перспективи розділу 3, який вимагає попереднього оцінювання систем ШІ перед впровадженням у редакцію.
На думку представників асоціації, критерії та вказівки використання ШІ мають ґрунтуватися на досвіді й потребах редакційних команд і комерційних чинниках. Нереалістично та небажано, щоб ці рішення передавалися невизначеному зовнішньому органу ще і з огляду на те, що редакції мусять самі нести відповідальність за власний контент.
Хто має стежити за дотриманням політик
Імовірно, в більшості медіа нагляд за використанням ШІ в контенті буде обов’язком головного редактора, тоді як тестуванням систем для різних завдань і адаптуванням їх до потреб редакції займатимуться різні фахівці.
Утім, деякі великі західні видання створюють унікальні позиції, пов’язані з ШІ. Так, The New York Times найняло директором із застосування ШІ Зака Сьюарда — він встановлюватиме принципи використання штучного інтелекту у виданні. А Financial Times уже має редактору ШІ Мадхуміту Мурджію. Вона зосередиться на висвітленні застосування технологій ШІ та наслідків цього. Також Мурджія аналізуватиме його етичне використання та роль у розвитку науки та охорони здоров’я. І, звісно ж, допомагатиме колегам із їхніми текстами про штучний інтелект.
Більше про подібні практики можна прочитати в нашому огляді того, як західні медіа впроваджують ШІ в редакцію.