02. feb. 2025 o 19:19
TASR, Koktejl

Národný bezpečnostný úrad varuje pred jazykovým modelom umelej inteligencie: Hrozia problémy?

placeholder
Dáta o zadaných pokynoch môžu slúžiť na vybudovanie profilu osoby (ilustračné foto).
Zdroj: iStock

Buďte opatrní.

Domáce správy
02. feb. 2025 o 19:19
Národný bezpečnostný úrad varuje pred jazykovým modelom umelej inteligencie: Hrozia problémy?

Buďte opatrní.

Národný bezpečnostný úrad (NBÚ) varuje pred čínskym jazykovým modelom umelej inteligencie DeepSeek. O používateľoch zbiera viac informácií, ako jeho konkurencia. Navyše nad nimi ľudia nemajú takú kontrolu, ako býva zvykom. NBÚ o tom informoval na svojom webe.

"Dáta zahŕňajú dokonca presné časovanie stlačení jednotlivých klávesov, zadané pokyny (prompty), heslá, vkladané obrázky, audio súbory, dokumenty, ale aj IP adresu počítača, z ktorého je služba DeepSeek využívaná, systémový jazyk a podobne. Informácie sú následne ukladané na servery v Číne," uviedol úrad.

NBÚ zároveň upozornil, že napríklad konkurenčný vývojár modelu OpenAI deklaruje v Európskej únii súlad s GDPR, pričom v Číne takéto pravidlá chýbajú a dáta sú tam často využívané pre potreby vládnej komunistickej moci. "Podmienky používania DeepSeek obsahujú klauzulu o tom, že aplikácia môže využiť dáta na dodržiavanie legálnych nariadení alebo pre dobro verejnosti," varoval NBÚ.

Bezpečnostný úrad tiež priblížil, že dáta o zadaných pokynoch môžu slúžiť na vybudovanie profilu osoby a údaje o zariadeniach aj pre potreby kybernetických útokov. Pri využívaní DeepSeek sa dá zberu dát vyhnúť napríklad prácou s lokálnym modelom, teda tým, ktorý je stiahnutý v zariadení používateľa.

NBÚ tiež podotkol, že DeepSeek aktívne cenzuruje informácie, ktoré sú nepohodlné pre čínsky režim. "Ak chcete napríklad od čínskeho jazykového modelu získať informáciu o protestoch na Námestí Tchien-an-men v roku 1989, pri ktorého potlačení režim zavraždil stovky občanov, četbot odmietne zobraziť odpoveď," vysvetlil úrad.