AI je dobrý sluha, ale umělý kamarád
- Datum: 31.01.2025
- Autor: Monika Langhoffer
Umělá inteligence (AI) je součástí mnoha služeb a produktů. Některé z nich jsou určené i pro děti. Může to být pro děti nebezpečné a jak je správně chránit?
Kde se děti mohou s AI setkat?
S umělou inteligencí (AI) se setkáváme v podstatě na každém kroku, aniž bychom si to často uvědomili. Pracujeme s ní při využívání hlasového asistenta Siri, navigace Waze nebo v rámci předvýběru filmů na Netflixu na základě našeho předchozího sledování. Stejně tak se s AI v každodenním životě setkávají děti. Základní a střední školy také postupně zařazují AI do své výuky.
Jedním asi z nejvíce používaných nástrojů ze strany dětí je ChatGPT. Dalšími oblíbenými AI službami jsou např. MidJourney, který slouží především ke generování obrázků, a My AI, který umožňuje vytvářet virtuální přátele a rádce.
Studenti základních a středních škol mohou v praxi ChatGPT využívat k domácím úkolům, kdy si jednoduše mohou vyhledat informace, které ke zpracování domácího úkolu potřebují. ChatGPT může také sloužit jako vhodná podpora při studiu jazyků. Studentům může pomoci i při kreativní činnosti, například při psaní eseje či vypracování referátu do školy. Jako užitečný nástroj se ChatGPT jeví v souvislosti s programováním, protože děti se jeho prostřednictvím mohou naučit jednoduché příklady kódu a poskytne jim návod, jak fungují jednotlivé programové jazyky.
AI nástroje mohou být i pro děti velmi užitečné a bez jejich znalosti se řada profesí, ale i činností běžného života, v budoucnu neobejde. Jako každá nová a ne zcela prozkoumaná technologie s sebou ale nesou i potenciální rizika, která by zejména rodiče a škola neměli ignorovat.
Jaká jsou rizika při využívání AI dětmi?
Pro děti, a obzvlášť pro ty velmi malé, může být poměrně matoucí, že ve filmech a animovaných pohádkách jsou roboti často zobrazováni jako přátelští humanoidi. Například ve Skotsku v rámci studie zkoumali, jak děti vnímají hlasové asistenty. Smyslem studie bylo zjistit, zda děti přisuzují například Alexe (hlasový asistent) „lidštější povahu“. Děti odpovídaly, že Alexa by byla smutná, kdyby ji nezapojili do konverzace nebo by jim dělalo problém rozbité zařízení vyhodit.
Děti mohou AI využívat nejen pro studijní účely, ale také jako kamaráda, se kterým si rády povídají. Mohou mít proto pocit, že, stejně jako si Pinocchio přál stát se živým chlapcem, i jejich „virtuální kamarád“, který jim odpovídá na vše, na co se ptají, získává jakési „lidské rysy“. Dítě, které tuto roli svému „umělému kamarádovi“ přisoudí, se může ChatGPT nebo jinému AI nástroji svěřovat s nejrůznějšími problémy, které mohou mít povahu i citlivých údajů, například svěření se se svými psychickými problémy, šikanou, domácím násilím atd.
Děti nedokážou vždy vyhodnotit, že určitá činnost při práci s AI nástroji by pro ně mohla být nebezpečná. Zde je proto místo zejména pro rodiče, aby dětem vysvětlili, že jedním z největších rizik spojeným s používáním AI je jakékoliv zadávání jejich osobních nebo citlivých údajů, např. o jejich sexuální orientaci či zdravotním stavu. Děti by se měly vyvarovat vkládání jakýchkoliv informací o své osobě nebo o svých blízkých. Navíc ChatGPT a další obdobné nástroje jsou stále jen umělou inteligencí, a nikoliv skutečným člověkem, který by mohl jejich problémům skutečně porozumět a poskytnout jim adekvátní radu. I z tohoto hlediska mohou být tyto nástroje pro děti velmi nebezpečné, neboť jim mohou poskytnout nevhodné rady či doporučení, které děti nemusí být schopny kriticky posoudit.
Právní úprava a Akt o umělé inteligenci
Ochranu soukromí a osobních údajů dětem zaručuje především GDPR a zákon o zpracování osobních údajů. Dne 1. srpna 2024 nabyl účinnosti Akt o umělé inteligenci(AI Act), který se také věnuje ochraně dětí v souvislosti s AI. Už v bodě 28 preambule AI Act uznává děti jako samostatnou zranitelnou skupinu, která si zaslouží zvláštní ochranu. V preambuli dále odkazuje na klíčové mezinárodní standardy, včetně článku 24 Listiny základních práv Evropské unie a Úmluvy o právech dítěte a zejména na Obecný komentář č. 25 (2021) o právech dětí v souvislosti s digitálním prostředím (Výbor OSN pro práva dítěte).
V samotném textu AI Act obsahuje řadu praktických ustanovení, která dětem garantují zvýšenou ochranu. V článku 5 tak stanoví, že při činnostech, ve kterých jsou rizika spojená s AI nepřijatelná, bude její využití zakázáno. Jedním z těchto rizik je zranitelnost související s věkem (článek 5 bod 1 písm. b) AI Actu). V tomto ohledu tato regulace zakazuje komercializaci nebo využívání systémů AI, které by využívaly zranitelnosti dětí. Jedná se například o hračky nebo aplikace a nástroje, které by byly navržené tak, že by zkreslovaly volby dětského uživatele a byly způsobilé mu nějakým způsobem ublížit. Ve stejném smyslu je zakázáno využití AI s cílem odvodit emoce dětí ve škole, například v souvislosti s možným hodnocením chování dítěte (článek 5 bod 1 písm. f) AI Actu).
Ochranu dětem dále AI Act garantuje také v souvislosti se systémy a nástroji umělé inteligence využívaných ve školství. Ty jsou klasifikovány jako vysoce rizikové a jako takové podléhají většímu dohledu s důrazem na ochranu dětí (příloha III a článek 6 AI Actu).
Dětem je rovněž zaručena zvláštní ochrana v rámci regulačních sandboxů. Podle článku 60 bodu 4 písm. g) AI Actu musí být v rámci testování v reálných podmínkách děti náležitě chráněny.
Akt AI obsahuje rovněž požadavky na transparentnost, když nařizuje, že obsah generovaný AI musí být jasně zveřejněn a označen (např. vodoznaky), což zajistí, aby si i děti mohly být vědomy jeho „umělé povahy“, tj. že jej nevytvořil člověk (bod 133 preambule).
Ochrání děti AI Act?
AI Act má formu nařízení. To znamená, že je přímo právně závazný v členských státech EU. AI Act však bude poskytovat jen tak silnou ochranu, jak bude vypadat jeho adaptace v členských státech EU. Jinak řečeno, záleží na členských státech a určených dozorových úřadech, jak budou v praxi fungovat jednotlivé procesy, jakým způsobemn budou vymáháno dodržování povinností plynoucích z AI Actu, jak bude kontrolován a vymáhán zákaz využití AI při nepřijatelných rizicích a jak budou řešena rizika v souvislosti s využíváním AI ze strany dětí.
Prohlášení o umělé inteligenci a dětech
Ochraně soukromí dětí se pravidelně věnují také dozorové úřady pro ochranu osobních údajů. Ve dnech 9. až 11. října 2024 se v Římě konal čtvrtý ročník kulatého stolu G7 o ochraně údajů. Mezi hlavní diskutovaná témata patřila právě AI a její dopad na soukromí, zejména v souvislosti s vytvářením důvěryhodných systémů AI a ochranou dětí v kontextu AI. Tohoto významného setkání se zúčastnili zástupci regulátorů z Kanady, Francie, Německa, Japonska, Spojeného království a USA a rovněž zástupci Evropského sboru pro ochranu osobních údajů (EDPB) a Evropský inspektor ochrany údajů (EDPS).
Účastníci kulatého stolu zveřejnili Prohlášení o AI a dětech, ve kterém zdůrazňují, že i když umělá inteligence dětem nabízí značné možnosti, přináší s sebou rovněž rizika, a to zejména s ohledem na jejich vývoj a omezenější schopnost porozumět ochraně svého soukromí.
Účastníci kulatého stolu vyzdvihli zejména komplikace spojené s rozhodováním na základě AI, které nese potenciální riziko diskriminace. AI může rovněž ovlivňovat chování uživatelů a nutit je například učinit rozhodnutí, která nemusí být v jejich zájmu. Prohlášení upozorňuje i na to, že děti si mohou vytvořit s AI emocionální vazby, a tak se mohou stát zranitelnějšími k poskytnutí svých citlivých údajů. Jako významný bod účastníci kulatého stolu podtrhli tréninkové modely AI, neboť ty často využívají velké soubory dat, které mohou být exportována z veřejně dostupných zdrojů. A to rovněž vyvolává obavy z možných zásahů do soukromí dětí.
Prohlášení o AI a dětech obsahuje řadu doporučení k ochraně osobních údajů a soukromí dětí. Z nich můžeme jmenovat například doporučení řídit se zásadou „privacy by design“ v případě, že AI nástroje jsou přímo určené dětem nebo k nim děti mohou mít přístup, provádět hodnocení dopadů na ochranu osobních údajů (DPIA) a upřednostnit zájmy dětí při sběru a zpracování dat.
Jak ochránit děti při používání AI?
Pro zajištění ochrany dětí a jejich soukromí je nezbytné zvyšovat informovanost o technologiích založených na AI. Jen tak může být využívání nástrojů umělé inteligence ze strany dětí bezpečné a zodpovědné. Tento úkol náleží nejen jejich rodičům, ale rovněž školám, které AI v rámci výuky využívají.