Неточен списък с книги, създаден от изкуствен интелект и публикуван наскоро от два вестника, показва колко лесно е все още издателите да разпространяват некачествено съдържание, дело на AI.

Миналата седмица Chicago Sun-Times и Philadelphia Inquirer публикуваха вложка с книги за четене през лятото, изготвена от King Features - подразделение на Hearst Newspapers, която предоставя на двете издание лицензирано съдържание.

Във вложката бяха публикувани имена на истински автори, но препоръчаните книги бяха основно несъществуващи. В крайна сметка, от 404 Media установяват, че списъкът е изготвен от човек, който е използвал ChatGPT, но след това не е проверил фактите.

“Наистина използвам периодично AI, но винаги първо проверявам материалa,” казва авторът на вложката пред 404 Media.

“Този път не го направих и не мога да повярвам, че съм пропуснал, защото е толкова очевидно. Нямам извинение.”

Представянето на ChatGPT от OpenAI преди повече от две години сложи началото на златна треска в сферата на изкуствения интелект, което доведе до потоп от инструменти с него, целящи да помогнат на хората да намират информация онлайн, без да преглеждат списъци с връзки.

Това удобство обаче си има цена, тъй като чатботовете с изкуствен интелект продължават да предлагат неверни или спекулативни отговори.

Новинарски редакции възприеха чатботовете с изкуствен интелект с известно безпокойство, осъзнавайки, че технологията отваря нови възможности, но и носи риск от потенциални гафове – всичко това на фона на опасенията, че изкуственият интелект може да доведе до загуба на работни места и да намали източниците на приходи на новинарските издания.

Невнедряването на технологията обаче означава риск от изоставане, тъй като конкуренцията използва изкуствен интелект, за да преглеждат огромни масиви от данни, да генерира идеи и да помага на читателите да се ориентират в сложни наративи.

Въпреки че много големи редакции приеха насоки за използването на изкуствен интелект след пускането на ChatGPT, огромният брой служители на някои от тях, съчетан с множество външни партньорства, усложнява установяването на места, на които могат да възникнат злепоставящи грешки, свързани с изкуствения интелект.

Инцидентът с вложката е пример за множеството начини, по които грешки, свързани с AI, могат да стигнат до новинарски продукти. Повечето допълнителни издания на Sun-Times през тази година - от кръстословици до практически ръководства, са дело на Hearst, казва пред CNN Трейси Браун, директор Партньорства в Chicago Public Media, компанията-майка на Sun-Times.

Въпреки това, независимо дали става въпрос за вложка или за публикация, Браун подчертава, че редакциите трябва да използват изкуствения интелект внимателно.

„Не казваме, че не можете да използвате изкуствен интелект. Трябва да го използвате отговорно и по начин, който запазва непокътнати вашите редакционни стандарти и почтеност.“

Проверявайте всичко, до което чатботовете се докосват

Точно защото изкуственият интелект е склонен да прави грешки, редакциите трябва да поддържат „фундаменталните стандарти и ценности, от които отдавна се ръководят в работата си“, казва пред CNN Питър Адамс, старши вицепрезидент по изследвания и дизайн в Проекта за новинарска грамотност.

Това включва, на първо място, прозрачност относно използването на изкуствен интелект. Много известни издатели са откровени относно това как техните редакции използват изкуствения интелект, за да подобряват съдържанието си.

Associated Press, смятана от мнозина в новинарската индустрия за златния стандарт за журналистически практики, предвид начина, по който използва изкуствен интелект за превод, резюмета и заглавия, избягва гафове, като винаги разчита и на човешка подкрепа.

Аманда Барет, вицепрезидент, отговарящ за стандартите в Associated Press, казва пред CNN, че всяка информация, събрана с помощта на инструменти на изкуствен интелект, се счита за непроверен изходен материал и че репортерите са отговорни за проверката на генерираната от AI информация.

От AP също така проверяват дали нейните партньори следват подобни политики във връзка с изкуствения интелект. Според Барет:

„Всъщност, трябва да се уверите, че вашите стандарти са съвместими с тези на партньора, с когото работите и че всички са наясно какъв е стандартът“.

Зак Кас, консултант по изкуствен интелект и бивш ръководител в OpenAI, споделя мнението на Барет, като казва, че редакциите трябва да се отнасят към изкуствения интелект „като към младши изследовател с неограничена енергия и нулева достоверност“.

Това означава, че нaписаното от AI трябва да бъде „подлагано на същия контрол, както 'гореща' информация от непроверен източник“.

„Грешка е да го използваме като търсачка, вместо като това, което всъщност е: импровизатор с гениална памет и липса на инстинкт към истината“.

Новинарските грешки на AI са рядкост, но са злепоставящи

Грешките, свързани с изкуствения интелект в популярни медии, когато биват допускани, обикновено са много злепоставящи. Bloomberg News, например, представи своите обобщения от AI през януари и вече бяха допуснати няколко грешки.

През март изкуственият интелект на LA Times изрази своите симпатии към Ку-клукс-клан в рамките на 24 часа след стартирането си. През януари Apple пък премахна функционалност на своя изкуствен интелект Apple Intelligence, която обобщаваше неправилно известия от новинарски издания.

Това е само в последно време. В продължение на години редакциите изпитват затруднения, когато на AI се позволява да действа безконтролно. През 2023 г. медийната компания Gannett беше принудена да преустанови експеримент с AI след няколко сериозни грешки в статии за гимназиалния спорт. CNET пък имаше няколко публикации с неточност през 2023 г.

Въпреки това, „наистина крещящите случаи на неточности са малко“, посочва Феликс Саймън, научен сътрудник в областта на изкуствения интелект и дигиталните новини в Института за изследване на журналистиката Reuters към Оксфордския университет.

Иновациите в изследователската дейност намалиха т. нар. халюцинации, или неточните отговори на изкуствения интелект, принуждавайки чатботовете да прекарват повече време в мислене, преди да отговорят, казва пред CNN Крис Калисън-Бърч, преподавател по компютърни и информационни науки в Университета на Пенсилвания.

Те обаче не са безгрешни и това е причината, поради която тези инциденти все още се случват.

„Компаниите, занимаващи се с изкуствен интелект, трябва да комуникират по-добре с потребителите възможностите за грешки, тъй като многократно сме виждали примери на потребители, които не разбират как да използват технологиите“.

Цялото редакционно съдържание в Sun-Times се създава от хора, според Браун. В бъдеще вестникът ще гарантира, че редакционни партньори, като King Features, ще спазват същите стандарти, точно както медиятат вече гарантира, че етичният кодекс на фрийлансърите отразява неговия собствен.

„Истинският извод“, според Кас, не е само, че хората са необходими, а и „защо сме необходими“.

„Не за да разчистваме след изкуствения интелект, а за да правим нещата, които изкуственият интелект по принцип не може. „Да вземаме морални решения, да оспорваме властта, да разбираме нюансите и да решаваме кое, всъщност, има значение.“