Hogyan használják az alkalmazottak a ChatGPT-t?

A rohamosan fejlődő ChatGPT és riválisai a vállalatok működését is hatékonyabbá tehetik, ugyanakkor adatvédelmi és adatbiztonsági kockázatokat is felvetnek.
 

A nagy nyelvi modellek (LLM), például a ChatGPT képesek értelmezni és megválaszolni a felhasználók kérdéseit. Azonban minden alkalommal, amikor kapcsolatba lépünk egy ilyen rendszerrel, vagy akár az azokra épülő chatbotokkal, és információt kérünk, akkor fennáll a veszélye, hogy érzékeny adatokat osztunk meg. Éppen ezért lehet, hogy míg egyes cégek kifejezetten támogatják, addig mások tiltják a ChatGPT használatát a munkahelyi eszközökön.
 
Az ESET kutatói felhívták a figyelmet arra, hogy amikor egy chatbotnak kérdést teszünk fel, akkor a beírt adatok "nyilvánossá" válhatnak. Ez persze nem jelenti azt, hogy a rendszerek azonnal felhasználnák a tőlünk megszerzett információt másnak adott válaszokhoz. Az LLM szolgáltató vagy partnerei azonban hozzáférhetnek ezekhez az adatokhoz, és beépíthetik a technológia következő verzióiba. Ezen aggályok miatt az OpenAI, a ChatGPT mögött álló vállalat bevezette a csevegési előzmények kikapcsolásának lehetőségét, ami megakadályozza, hogy a felhasználói adatokat az OpenAI a mesterséges intelligencia modelljeinek tanítására és fejlesztésére használja fel.
 
A biztonsági cég szakértői nemrég összegyűjtötték a leggyakrabban előforduló problémákat, és tanácsokat adtak a kockázatok csökkentéséhez:
 
1. Az ügyféladatok felhasználása és megosztása
 
Az első gyakori hiba, amit a munkavállalók elkövetnek az LLM-ek használata során, hogy akaratlanul érzékeny információkat osztanak meg a vállalati ügyfelekről. Hogyan történik mindez? Képzeljük el például, hogy egy orvos beírja a betege nevét, orvosi feljegyzéseit a chatbot rendszerébe, és megkéri az eszközt, hogy állítson össze egy levelet a páciens biztosítótársaságának. Vagy a marketingesek feltöltik a CRM-rendszerükből az ügyféladatokat, hogy az eszköz célzott hírleveleket készítsen.
 
A munkavállalóknak érdemes minden alkalommal a lehető legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel.
 
2. Bizalmas dokumentumok feltöltése chatbotokba
 
A generatív technológiák hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására. Ugyanakkor a dokumentumok feltöltése az olyan rendszerekbe, mint a ChatGPT, veszélyeztetheti a bennük tárolt vállalati vagy ügyféladatokat. Bár csábító lehet egyszerűen átmásolni a dokumentumokat, és megkérni az eszközt, hogy készítsen összefoglalókat vagy ajánlásokat egy prezentációhoz, az adatbiztonság szempontjából ez egy kockázatos módszer.
 
Mindez vonatkozik minden bizalmas anyagra, például a fejlesztési stratégiákra, de a kevésbé lényeges dokumentumok - például egy megbeszélés feljegyzései - is elvezethetnek ahhoz, hogy az alkalmazottak felfedik a vállalatuk féltve őrzött titkait.
 
A kockázat mérséklése érdekében a vállalatoknak érdemes szigorú szabályokat hozni a bizalmas dokumentumok kezelésére, és korlátozni a hozzáférést az ilyen iratokhoz. Az alkalmazottaknak előbb manuálisan át kell nézniük a dokumentumokat, mielőtt összefoglalót vagy segítséget kérnek a chatbotoktól.
 
3. A vállalat adatainak felfedése
 
Képzeljük el, hogy a hatékonyság érdekében egy vállalat megpróbálja fejleszteni az egyes gyakorlatait és munkafolyamatait. Ezért segítséget kér a ChatGPT-től az időmenedzsment vagy a feladatok strukturálása terén, amelynek során értékes know-how-t és egyéb adatokat ad meg, hogy segítse a chatbotot a megoldás kidolgozásában. Ez azonban szintén adatvédelmi aggályokat vet fel.
 
Ha egy vállalat szeretné elősegíteni, hogy az alkalmazottak biztonságosan használják a generatív technológiákat, érdemes sablonkéréseket megfogalmazniuk, melyek szükség esetén minden munkavállalónak rendelkezésére állnak.
 
Mivel a mesterséges intelligencia és különösen a gépi tanulás területén a fejlődés folyamatos, a vállalatoknak óhatatlanul követniük kell a trendeket, és alkalmazkodniuk kell hozzájuk. Ezért érdemes meggyőződni arról, hogy minden kolléga tudja, hogy miként kell biztonságosan használni ezeket a technológiákat anélkül, hogy az adatok kiszivárgását kockáztatnák.
 
  1. 4

    A Dahua Technology hét biztonsági hibáról adott tájékoztatást.

  2. 4

    A Google ChromeOS egy fontos hibajavítást kapott.

  3. 3

    A Spring Framework egy közepes veszélyességű hibát tartalmaz.

  4. 4

    A 7-Zip egy súlyos sebezhetőség miatt szorul frissítésre.

  5. 3

    Újabb biztonsági frissítést kapott a Drupal.

  6. 4

    A Google Chrome egy fontos biztonsági hibajavítást kapott.

  7. 3

    Fél tucat biztonsági hiba vált kimutathatóvá a PHP-ben.

  8. 3

    A Nextcloud Desktop esetében két biztonsági rést kell befoltozni.

  9. 3

    Az Apple két sebezhetőséget szüntetett meg egyes operációs rendszereiben.

  10. 4

    A FortiClient kapcsán egy nulladik napi sebezhetőségre derült fény.

Partnerhírek
Új funkciókat kaptak az ESET otthoni védelmi szofverei

​Az ESET HOME Security legújabb verziója új és továbbfejlesztett funkciókkal véd a személyazonosságlopás, az adathalászat és más fenyegetések ellen.

Hazánkba is megérkezett az ESET Services

​Az ESET Magyarországon is elérhetővé tette az ESET Servicest, amely többek között biztosítja a gyors, felügyelt EDR (XDR) szolgáltatást is.

hirdetés
Közösség