OpenAI zavádza v ChatGPT nové bezpečnostné opatrenia pre situácie, v ktorých sa pracuje s citlivými údajmi alebo vo zvýšene rizikovom prostredí. Spoločnosť predstavila voliteľný režim Lockdown Mode a zároveň zavádza označenie „Elevated Risk“ pri vybraných funkciách v ChatGPT, ChatGPT Atlas a Codexe. Cieľom je znížiť riziko takzvaných prompt injection útokov, teda prípadov, keď škodlivý obsah skryto navádza vkladaním falošných príkazov umelú inteligenciu na vykonanie nežiaducej akcie alebo na sprístupnenie citlivých informácií.

Problém, ktorý tieto opatrenia riešia, je pre firmy veľmi praktický. Moderné AI nástroje už neslúžia len na generovanie textu. Dokážu prehliadať web, pristupovať k prepojeným aplikáciám a vykonávať úlohy naprieč viacerými systémami. Práve v takýchto situáciách vzniká nové bezpečnostné riziko. Model môže naraziť na škodlivé inštrukcie ukryté na webovej stránke alebo v inom externom obsahu a reagovať na ne spôsobom, ktorý je v rozpore so záujmom používateľa či firmy. Pri práci s internými dokumentmi, obchodnými údajmi alebo citlivými procesmi ide o riziko, ktoré firmy vnímajú čoraz citlivejšie.

Lockdown Mode je určený najmä pre používateľov s vyššími bezpečnostnými nárokmi, napríklad pre vedenie spoločností, právne tímy alebo bezpečnostných špecialistov. Nejde o režim, ktorý by bol potrebný pre väčšinu bežných používateľov. V tomto nastavení sa cielene vypínajú vybrané nástroje a schopnosti, ktoré by mohli zvýšiť riziko zneužitia alebo odoslania dát mimo kontrolovaného prostredia. Dôležitým príkladom je prehliadanie webu, ktoré je v režime Lockdown Mode obmedzené na cacheovaný obsah. To znamená, že živé sieťové požiadavky neopúšťajú infraštruktúru OpenAI, čím sa znižuje pravdepodobnosť, že citlivé údaje budú odoslané mimo kontrolovaného rámca.

Pre podnikové nasadenie je podstatné aj to, že tento režim sa spravuje cez administrátorské nastavenia a roly. Správcovia môžu vytvoriť špeciálnu rolu s aktívnym Lockdown Mode a zároveň presne určiť, ktoré aplikácie a aké konkrétne akcie budú používateľom dostupné. V praxi to znamená, že firma si môže nastaviť prísnejšie pravidlá pre rizikové pozície bez toho, aby musela rovnaké obmedzenia zavádzať pre všetkých zamestnancov.

Druhá novinka, označenie „Elevated Risk“, neslúži na automatické vypínanie funkcií, ale na jasnejšie upozornenie, že zapnutie niektorých sieťových schopností prináša vyššie bezpečnostné riziko. OpenAI tak kombinuje technické obmedzenia s lepšou informovanosťou používateľov. Výsledkom má byť bezpečnejšie využívanie umelej inteligencie vo firmách, ktoré chcú využiť jej výhody, no zároveň minimalizovať riziko kybernetických incidentov.