Hogyan használják az alkalmazottak a ChatGPT-t?
A rohamosan fejlődő ChatGPT és riválisai a vállalatok működését is hatékonyabbá tehetik, ugyanakkor adatvédelmi és adatbiztonsági kockázatokat is felvetnek.A nagy nyelvi modellek (LLM), például a ChatGPT képesek értelmezni és megválaszolni a felhasználók kérdéseit. Azonban minden alkalommal, amikor kapcsolatba lépünk egy ilyen rendszerrel, vagy akár az azokra épülő chatbotokkal, és információt kérünk, akkor fennáll a veszélye, hogy érzékeny adatokat osztunk meg. Éppen ezért lehet, hogy míg egyes cégek kifejezetten támogatják, addig mások tiltják a ChatGPT használatát a munkahelyi eszközökön.
Az ESET kutatói felhívták a figyelmet arra, hogy amikor egy chatbotnak kérdést teszünk fel, akkor a beírt adatok "nyilvánossá" válhatnak. Ez persze nem jelenti azt, hogy a rendszerek azonnal felhasználnák a tőlünk megszerzett információt másnak adott válaszokhoz. Az LLM szolgáltató vagy partnerei azonban hozzáférhetnek ezekhez az adatokhoz, és beépíthetik a technológia következő verzióiba. Ezen aggályok miatt az OpenAI, a ChatGPT mögött álló vállalat bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a felhasználói adatokat az OpenAI a mesterséges intelligencia modelljeinek tanítására és fejlesztésére használja fel.
A biztonsági cég szakértői nemrég összegyűjtötték a leggyakrabban előforduló problémákat, és tanácsokat adtak a kockázatok csökkentéséhez:
1. Az ügyféladatok felhasználása és megosztása
Az első gyakori hiba, amit a munkavállalók elkövetnek az LLM-ek használata során, hogy akaratlanul érzékeny információkat osztanak meg a vállalati ügyfelekről. Hogyan történik mindez? Képzeljük el például, hogy egy orvos beírja a betege nevét, orvosi feljegyzéseit a chatbot rendszerébe, és megkéri az eszközt, hogy állítson össze egy levelet a páciens biztosítótársaságának. Vagy a marketingesek feltöltik a CRM-rendszerükből az ügyféladatokat, hogy az eszköz célzott hírleveleket készítsen.
A munkavállalóknak érdemes minden alkalommal a lehető legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel.
2. Bizalmas dokumentumok feltöltése chatbotokba
A generatív technológiák hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására. Ugyanakkor a dokumentumok feltöltése az olyan rendszerekbe, mint a ChatGPT, veszélyeztetheti a bennük tárolt vállalati vagy ügyféladatokat. Bár csábító lehet egyszerűen átmásolni a dokumentumokat, és megkérni az eszközt, hogy készítsen összefoglalókat vagy ajánlásokat egy prezentációhoz, az adatbiztonság szempontjából ez egy kockázatos módszer.
Mindez vonatkozik minden bizalmas anyagra, például a fejlesztési stratégiákra, de a kevésbé lényeges dokumentumok - például egy megbeszélés feljegyzései - is elvezethetnek ahhoz, hogy az alkalmazottak felfedik a vállalatuk féltve őrzött titkait.
A kockázat mérséklése érdekében a vállalatoknak érdemes szigorú szabályokat hozni a bizalmas dokumentumok kezelésére, és korlátozni a hozzáférést az ilyen iratokhoz. Az alkalmazottaknak előbb manuálisan át kell nézniük a dokumentumokat, mielőtt összefoglalót vagy segítséget kérnek a chatbotoktól.
3. A vállalat adatainak felfedése
Képzeljük el, hogy a hatékonyság érdekében egy vállalat megpróbálja fejleszteni az egyes gyakorlatait és munkafolyamatait. Ezért segítséget kér a ChatGPT-től az időmenedzsment vagy a feladatok strukturálása terén, amelynek során értékes know-how-t és egyéb adatokat ad meg, hogy segítse a chatbotot a megoldás kidolgozásában. Ez azonban szintén adatvédelmi aggályokat vet fel.
Ha egy vállalat szeretné elősegíteni, hogy az alkalmazottak biztonságosan használják a generatív technológiákat, érdemes sablonkéréseket megfogalmazniuk, melyek szükség esetén minden munkavállalónak rendelkezésére állnak.
Mivel a mesterséges intelligencia és különösen a gépi tanulás területén a fejlődés folyamatos, a vállalatoknak óhatatlanul követniük kell a trendeket, és alkalmazkodniuk kell hozzájuk. Ezért érdemes meggyőződni arról, hogy minden kolléga tudja, hogy miként kell biztonságosan használni ezeket a technológiákat anélkül, hogy az adatok kiszivárgását kockáztatnák.
-
A Dahua Technology hét biztonsági hibáról adott tájékoztatást.
-
A Google ChromeOS egy fontos hibajavítást kapott.
-
A Spring Framework egy közepes veszélyességű hibát tartalmaz.
-
A 7-Zip egy súlyos sebezhetőség miatt szorul frissítésre.
-
Újabb biztonsági frissítést kapott a Drupal.
-
A Google Chrome egy fontos biztonsági hibajavítást kapott.
-
Fél tucat biztonsági hiba vált kimutathatóvá a PHP-ben.
-
A Nextcloud Desktop esetében két biztonsági rést kell befoltozni.
-
Az Apple két sebezhetőséget szüntetett meg egyes operációs rendszereiben.
-
A FortiClient kapcsán egy nulladik napi sebezhetőségre derült fény.
Az ESET HOME Security legújabb verziója új és továbbfejlesztett funkciókkal véd a személyazonosságlopás, az adathalászat és más fenyegetések ellen.
Az ESET Magyarországon is elérhetővé tette az ESET Servicest, amely többek között biztosítja a gyors, felügyelt EDR (XDR) szolgáltatást is.