A digitális tér új fenyegetései – gyakori kérdések

A digitális világ ma már a gyerekkor természetes része. A kérdés nem az, hogy jelen van-e, hanem az, hogyan tudjuk biztonságossá, támogatóvá és gyerekbaráttá tenni.

A mai szülőgeneráció olyan digitális környezetben neveli gyermekeit, amelyhez korábban nem léteztek bevett minták. Nincs kitől „ellesni” a jó gyakorlatokat: a szabályokat, határokat és szokásokat most kell közösen kialakítani. Eközben a technológia gyorsabban változik, mint ahogy a jogszabályok vagy az intézményi válaszok követni tudnák.

A digitális tér új fenyegetései, például a manipulált és deepfake (mesterséges intelligenciával (MI) létrehozott, vagy módosított, megtévesztően élethű hamis kép, hang, vagy felvétel) tartalmak és algoritmusok révén terjedő félrevezető információk különösen veszélyeztethetik a gyerekeket, ezért fontos, hogy a szülők és pedagógusok tudatosak legyenek és felkészítsék a fiatalokat ezek felismerésére és kezelésére.

Manapság szinte minden szülő szembesül a digitális világ kihívásaival, ezért összeszedtünk néhány gyakran ismételt kérdést és választ, hogy segítséget és támogatást nyújtsunk a biztonságos, felelős digitális szokások kialakításában.

Az, hogy egy gyerekről mesterséges intelligenciával generált tartalom készül, attól még bántalmazásnak és jogsértésnek minősülhet, hogy maga a kép vagy videó nem „valódi”. A jogsértés ugyanis nem az előállítás technikai módjától függ, hanem attól, hogy a tartalom sérti-e a gyermek emberi méltóságát, személyiségi jogait, jó hírnevét vagy biztonságát. Ha egy gyereket a hozzájárulása nélkül megalázó, szexuális, erőszakos vagy bármilyen szempontból kompromittáló helyzetben ábrázolnak – akár generált formában -, az ugyanúgy sértő és káros.

Ez azért is tekinthető bántalmazásnak, mert a gyerek testét, identitását használják fel, gyakran „láthatatlanul”, távolról és tartósan, akár úgy, hogy maga a gyerek nem is tud róla. Az UNICEF is hangsúlyozza: a kár valós, még ha a kép nem is az. Az ilyen tartalmak normalizálhatják a gyerekek szexualizálását, erősíthetik a keresletet az ilyen jellegű anyagokra és áldozattá tehetik azt a gyereket, akinek a képmását felhasználják.

Az ilyen visszaélések hatása nagyon konkrét és súlyos lehet: a gyerekek gyakran élnek meg kontrollvesztettséget, szégyent és önhibáztatást, visszahúzódhatnak az online térből, romolhat az iskolai teljesítményük és súlyos esetben akár öngyilkossági gondolatok is megjelenhetnek. Emellett stigmatizációval, kortárs vagy felnőtt ítélkezéssel, társas izolációval és hosszú távú érzelmi sérülésekkel kell szembenézniük. A helyzetet tovább nehezíti, hogy az ilyen tartalmak gyakran hihetőnek tűnnek és tartósan fennmaradnak az online térben, így éveken át kísérhetik az érintett gyereket. Ezért fontos egyértelműen kimondani: az AI-val generált visszaélések nem „ártalmatlanok”, hanem a gyermekjogok megsértésének egy új formáját jelentik.

Gyermekjogi szempontból az ilyen esetekben több alapvető jog is sérülhet. Egyrészt a gyermek méltósághoz való joga – amelyet az Alaptörvény is rögzít -, hiszen a manipulált tartalom a gyereket megalázó vagy félrevezető módon ábrázolhatja. A személyiségi jogok is sérülhetnek a Polgári Törvénykönyv alapján, például a magánélethez, a képmáshoz és hangfelvételhez való jog, a jó hírnévhez vagy a személyes adatok védelméhez való jog. Ez akkor is fennállhat, ha a tartalom „csak” manipulált, és nem feltétlenül extrém vagy szexuális jellegű. Súlyosabb esetekben bűntetőjogi relevancia is felmerülhet – például gyermekpornográfia.

Gyermekjogi megközelítésben mindez túlmutat a jogszabályokon: sérülhet a gyermek védelme a szexuális kizsákmányolással és bántalmazással szemben, a magánélethez és méltósághoz való joga, valamint az identitáshoz kapcsolódó védelem is, hiszen a gyerek teste és identitása az ő aktív közreműködése nélkül kerül felhasználásra. Emellett fontos kiemelni, hogy az ilyen tartalmak hatása nem egyszeri: elhúzódhat, ismétlődhet és a társas kapcsolatokra, mentális egészségre is kihat.

Azért különösen fontos kimondani, hogy a deepfake bántalmazás is valódi bántalmazás, mert a következmények nem „virtuálisak”. A társadalmi stigma, a reputációs kár vagy a pszichés sérülés nagyon is valós, ezért a védelemnek, a jogi definícióknak és a jogorvoslatnak is ezt kell tükrözniük. Ha ezt nem nevezzük nevén, fennáll a veszélye annak, hogy az áldozatok védelme gyengül és az új típusú visszaélések bagatellizálódnak.

A nemzetközi kutatások azt mutatják, hogy a gyerekek kitettsége növekszik, és különösen aggasztó, hogy az ilyen visszaélések gyakran kortársak között történnek – például úgynevezett „nudify” eszközök használatával. Ez azt jelenti, hogy sok esetben nem felnőttek, hanem más gyerekek vagy fiatalok készítenek egymásról mesterséges intelligenciával manipulált – például a ruhát „eltüntető”, meztelenséget szimuláló – képeket, gyakran úgy, hogy nem is érzékelik ennek a súlyos jogi és érzelmi következményeit.

Egy amerikai felmérés szerint tízből egy kiskorú számolt be arról, hogy kortársai mesterséges intelligenciával készítettek meztelen képet más gyerekekről, míg a UNICEF, az ECPAT és az INTERPOL 2025-ös, 11 országot érintő kutatásában az érintettség becsült aránya 0,4–4,3% között mozgott több mint 11 ezer megkérdezett gyermek körében. Magyarországon egyelőre nincs olyan kutatás, amely pontos képet adna a jelenség elterjedtségéről, ezért főként nemzetközi adatokra és általános tapasztalatokra tudunk támaszkodni.

A segítségkérés szempontjából az látszik, hogy sok gyerek nem mer megszólalni. A szégyen, a stigmatizációtól való félelem, az áldozathibáztatás veszélye vagy akár az, hogy elveszik tőlük az eszközeiket, gyakran visszatartja őket.

A megelőzés szempontjából is új helyzet áll elő: ma már szexuális tartalom a gyerek bármilyen közreműködése nélkül is előállítható – például elég egy hétköznapi, közösségi médiában megosztott fotó, amelyből valaki mesterséges intelligenciával manipulált képet készít. Ezért a hagyományos üzenetek, mint a „ne küldj magadról intim képet”, önmagukban már nem elegendők, mert a kockázat akkor is fennállhat, ha a gyerek semmit nem tett.

Eközben a felnőttek – szülők, pedagógusok, szakemberek – sokszor nincsenek tisztában azzal, hogy az AI-val generált tartalom is lehet jogsértő, ami lassíthatja a megfelelő reagálást. Ilyen helyzetben az érintett gyerekek könnyen magukra maradhatnak, különösen, ha az iskola vagy az online platform késlekedik a lépésekkel.

Ezért kulcsfontosságú, hogy a felnőtt környezet képzést és eszközöket kapjon a felismeréshez és a támogatáshoz. Magyarországon segítség kérhető például a Kék Vonal gyermekkrízis-vonalnál, a Nemzeti Média- és Hírközlési Hatóság Internet Hotline szolgáltatásánál, az UNICEF Magyarország gyermekjogi infopontjánál, az Áldozatsegítő Központoknál vagy a biztonsagosinternet.hu bejelentő felületén, és szükség esetén a rendőrséghez is lehet fordulni – fontos üzenet, hogy az érintett gyerekek nincsenek egyedül, van hová fordulniuk.

A digitális platformok felelőssége kulcsfontosságú, mert a gyerekek valódi védelme nem működik az ő aktív szerepvállalásuk nélkül. Az UNICEF szerint a technológiai cégeknek nemcsak akkor kell lépniük, amikor már megtörtént a baj, hanem már a fejlesztés során számolniuk kell a gyermekeket érintő kockázatokkal – például azzal, hogy a szolgáltatásaikat visszaélésre lehet használni.

Az Európai Unió már tett lépéseket ebbe az irányba: a Digitális Szolgáltatásokról szóló rendelet kötelezi a nagy platformokat a gyors bejelentési és eltávolítási rendszerek működtetésére, valamint a kiskorúakat érintő kockázatok vizsgálatára és hamarosan az AI-val generált tartalmak jelölése is kötelező lesz. Ez azonban még nem elegendő.

A gyerekek biztonságához arra van szükség, hogy a védelem már a technológia tervezésébe beépüljön – vagyis hogy a rendszerek eleve megnehezítsék a visszaéléseket és jobban védjék a gyerekek adatait és képeit. Emellett gyorsabb, gyermekbarát eltávolítási lehetőségekre, hatékonyabb nemzetközi együttműködésre, pontosabb jogszabályokra és több támogatásra van szükség a szülők, pedagógusok és szakemberek számára is. Csak ezek együtt teremthetnek valódi védelmet.

Szülőként az egyik legfontosabb kiindulópont annak felismerése, hogy ezek a kockázatok sokszor nem a gyerek döntéseiből fakadnak – ma már akár a tudta nélkül is készülhet róla manipulált tartalom. A UNICEF ezért azt hangsúlyozza, hogy a legfontosabb eszköz a tudás és a bizalmi kapcsolat.

Érdemes nyíltan és ítélkezés nélkül beszélgetni a gyerekekkel arról, hogy léteznek AI-alapú manipulációk, és világossá tenni számukra: ha történik valami, nincsenek egyedül, és nem kell szégyenkezniük – biztonságosan fordulhatnak segítségért. Ugyanilyen fontos a digitális tudatosság erősítése – annak megértése, hogy ami egyszer felkerül az internetre, az könnyen kontrollálhatatlanná válhat, valamint hogy a gyerekeknek joguk van a saját adataik és képmásuk védelméhez.

Gyakorlati szinten segíthet az is, ha a család tudatosabban kezeli a megosztásokat: átgondolja, milyen fotók kerülnek nyilvános felületekre, szűkíti a láthatóságot, és közösen dönt a posztolásról. Ha megtörténik a baj, a gyors reagálás kulcsfontosságú: érdemes bizonyítékot menteni (képernyőfotó, link, időpont), jelenteni a tartalmat a platformon és szükség esetén bevonni az iskolát, hotline-szolgáltatást, hatóságot.

Összességében a legnagyobb védelmet nem egyetlen eszköz adja, hanem a tájékozottság, a nyitott kommunikáció és az, ha a gyerek tudja, hogy nincs egyedül egy ilyen helyzetben.

Segíts a kritikus helyzetben lévő gyerekeknek!

Havi rendszeres adományoddal életeket menthetsz.

Segítek