
В OpenAI, заплахата за сигурността може да идва и отвътре. Компанията наскоро пусна обява, че търси да наеме служител, който ще следи за рисковете вътре в компанията, за да може "да се укрепи срещу вътрешни заплахи за сигурността."
В обявата се казва, че трудовите задължения включват анализирането на аномални дейности, засичането и смекчаването на вътрешни заплахи и работа с отдела за човешки ресурси и с правния отдел за "провеждане на разследвания на подозрителни дейности."
Говорител на OpenAI е заявил пред Business Insider, че компанията не коментира своите обяви за работа.
OpenAI вече се намира в центъра на разгорещен дебат относно изкуствения интелект (AI) и сигурността. Служители на OpenAI и щатски законодатели изказаха опасения относно това дали компанията полага достатъчно усилия, за да гарантира, че мощните ѝ технологии не се използват за причиняване на вреди.
Междувременно, от OpenAI са казвали, че свързани с държавата представители от Китай, Русия и Иран са се опитвали да използват нейните AI модели за неща, които тя определя като злонамерени действия. Компанията казва, че е осуетила тези действия и е закрила съответните профили.

Самата OpenAI стана мишена на злонамерени атаки през 2023 г., когато хакери „пробиха“ вътрешната ѝ система за съобщения, а инцидентът излезе на бял свят след като двама души изнесоха информация на New York Times.
Обявата за работа изглежда показва, че освен от хакерски групи и авторитарни правителства, OpenAI се притеснява и от заплахи, които произтичат от собствените ѝ служители, въпреки че не е ясно за какъв вид заплаха ще следи компанията.
Една от възможностите е OpenAI да иска да защити търговските тайни, които стоят в основата на нейната технология. Обявата показва, че наемaнето на служител, който да разследва рисковете вътре в компанията, е част от доброволните ангажименти за безопасността на AI, които компанията е поела пред Белия дом.
В отворено писмо от миналия юни, настоящи и бивши служители на OpenAI заявиха, че се чувстват блокирани да изразяват опасенията си относно безопасността на AI. В писмото OpenAI бе призована да гарантира "право за предупреждаване" на обществото относно опасностите за продуктите на OpenAI. Не е ясно дали този тип сигнализиране за нередности ще се покрива от "контролите за предотвратяване на загубата на данни", за чието прилагане ще отговаря разследващият рискове.
Новините на Darik Business Review във Facebook , Instagram , LinkedIn и Twitter !
Още по темата
- Ето как да проверим дали данните в електронната ни трудова книжка са пренесени коректно
- Милиардер към младите: Не планирайте кариерата си около една професия
- AI пише кода, a кой ще пише за AI: Как големите тех компании се надпреварват за най-добрите мозъци
- Датска мебелна верига инвестира 40 млн. лв. в трети склад в Индустриален парк София-Божурище
ИНТЕРИОРНИ ВРАТИ HÖRMANN
Калкулатори
Най-ново
Глобяват турист с €200 000, летял с дрон над испански фестивал
преди 6 минПритеснявате се за пари? Ето как да се подготвите за трудни времена
преди 16 минЕто как да проверим дали данните в електронната ни трудова книжка са пренесени коректно
преди 22 минЧужденците ще плащат, за да видят природните забележителности на Нова Зеландия
преди 47 минВъпреки трудностите: Европейският M&A пазар е жив и активен
преди 1 часБилетите от Бургас до Созопол, Черноморец и околността скачат с 10%
преди 1 часПрочети още
Израелски медии: Нетаняху готви пълна окупация на Газа
darik.bgБившият бразилски президент Болсонаро е под домашен арест, САЩ разкритикуваха действията на съда
darik.bgГеорги Свиленски: В БСП има предатели! На „Бузлуджа“ беше рекордно рехаво тази година!
darik.bgЦСКА отстрани Бютучи от първия отбор
dsport.bgЛевски с надежди за Георги Костадинов
dsport.bgКърменето и хормоналният баланс след раждане: Какво се случва в тялото на майката?
9meseca.bg