Internetin turvallisuus on harhaluulo – teinit altistuvat vaaralliselle sisällölle

Digi Kirjoittaja: , toimittaja Ilmoita virheestä, Tietoa meistä
Toimitusperiaatteet

Brittien yleisradioyhtiö BBC:n tuore selvitys osoittaa, että nuoret näkevät edelleen väkivaltaa, kiusaamista, itsetuhoista materiaalia ja seksuaalisia vihjeitä sisältävää sisältöä sosiaalisessa mediassa.

MAINOS
MAINOS PÄÄTTYY

Kansainvälisesti on luotu uusia lakeja, joiden turvin lapsia ja nuoria pyritään suojelemaan. Ilmeisesti lait toimivat yhtä hyvin kuin kiinni oleva sateenvarjo rajuilmalla. Tutkivat journalisti loivat kuusi tekaistua profiilia 13–15-vuotiaille tytöille ja pojille.

Sen jälkeen he selasivat TikTokia, Instagramia ja YouTubea vain kymmenen minuuttia päivässä viikon ajan. Tulokset olivat hätkähdyttäviä. Vaikka laki velvoittaa alustoja suojelemaan alaikäisiä, haitallinen materiaali ilmestyi nopeasti etenkin TikTokissa ja YouTubessa.

Instagram oli parantanut toimintaansa selvästi. BBC:n uusintatestissä se ei näyttänyt mitään vaarallista sisältöä. Alustalla on nyt käytössä ikärajoihin perustuva sisältösuodatus.

TikTok sen sijaan esitti edelleen 15-vuotiaalle Maya-tekoprofiilille runsaasti sisältöä kiusaamisesta, itsemurha-aiheista ja väkivallasta lapsia sekä naisia kohtaan. YouTubessa pojille luodut profiilit saivat nopeasti suosituksia asevideoista ja muusta häiritsevästä sisällöstä.

Internetin turvallisuusyhtiö UK Safer Internet Centren johtaja David Wright varoittaa, että vanhempien ei pidä luottaa pelkkiin lakeihin tai sovellusten omiin rajoituksiin. Hänen mukaansa perheiden täytyy itse pysyä perillä siitä, mitä nuoret näkevät ja millaisia palveluita he käyttävät.

TikTok ja YouTube vakuuttavat, että niillä on vahvat suojatoimet, mutta asiantuntijoiden mielestä todellisuus on toisenlainen. Suojatoimet ovat lähinnä ympäripyöreitä linnunlauluja käyttäjäehdoissa, joilla ei ole tosiasiallista vaikutusta.

Voit lukea Starassa myös lisää tähän kyseiseen artikkeliin liittyvistä aiheista, kuten , , , , , tai laajemmin aihealueesta Digi.