Prawie 5 milionów usuniętych kont w zaledwie miesiąc – to bilans australijskiej rewolucji, która wstrząsnęła światem technologii w tym roku. 10 grudnia 2025 roku Australia stała się pierwszym krajem na świecie, który wprowadził całkowity zakaz korzystania z mediów społecznościowych przez osoby poniżej 16. roku życia. Skuteczność Sydney okazała się imponujaca. Dziś, widząc konkretne rezultaty z Antypodów, rządy w Paryżu i Londynie przyspieszają prace nad własnymi zakazami. 27 stycznia 2026 roku francuskie Zgromadzenie Narodowe zagłosowało za zakazem dla osób poniżej 15. roku życia, a brytyjska Izba Lordów tydzień wcześniej opowiedziała się za podobnymi ograniczeniami. Rok 2026 może zakończyć erę nieograniczonego dostępu dzieci do social mediów.
Australia pokazała, że się da – 4,7 miliona kont w jeden miesiąc
Od 10 grudnia 2025 roku, kiedy australijski zakaz wszedł w życie, platformy społecznościowe usunęły lub zablokowały dostęp do 4,7 miliona kont należących do użytkowników poniżej 16. roku życia. To największa jednorazowa operacja czyszczenia nieletnich użytkowników w historii internetu.
Zakaz objął dziesięć głównych platform: Instagram, TikTok, Facebook, Snapchat, YouTube, X (dawniej Twitter), Reddit, Threads, Twitch i Kick. Same Meta Platforms – właściciel Facebooka, Instagrama i Threads – usunęły 550 tysięcy kont w ciągu pierwszych trzech tygodni. Julie Inman Grant, australijska eSafety Commissioner, potwierdziła, że działania platform przekroczyły początkowe prognozy. Według danych rządowych, w Australii mieszka około 2,5 miliona osób w wieku 8-15 lat – liczba usuniętych kont sugeruje, że zakaz objął nie tylko legalnie zarejestrowanych użytkowników, ale także te konta, które powstały z podrobionymi danymi wieku.
Premier Anthony Albanese bronił decyzji podczas konferencji prasowej 15 stycznia 2026 roku. „To najbardziej zdecydowane działanie przeciwko Big Tech podjęte przez jakikolwiek rząd na świecie. Nasza młodzież nie jest towarem do sprzedaży algorytmom” – oświadczył Albanese.
Australijskie prawo przewiduje kary do 49,5 miliona dolarów australijskich (około 32 miliony dolarów amerykańskich) dla platform, które nie wyegzekwują zakazu. Pierwsza inspekcja zgodności rozpocznie się w czerwcu 2026 roku.
Skuteczność australijskiego modelu wynika z połączenia trzech elementów: surowych kar finansowych, obowiązku weryfikacji wieku nałożonego na platformy (nie na rodziców) oraz intensywnej kampanii informacyjnej. Australijska Komisja ds. Mediów i Komunikacji przeprowadziła w grudniu 2025 roku ogólnokrajową kampanię edukacyjną o budżecie 18 milionów dolarów australijskich, wyjaśniającą rodzicom i nastolatkom konsekwencje nowego prawa.
Macron wypowiada wojnę amerykańskim platformom
27 stycznia 2026 roku Francja stała się drugim krajem na świecie, który uchwalił zakaz mediów społecznościowych dla dzieci. Francuskie Zgromodzenie Narodowe zagłosowało 116 głosami do 23 za wprowadzeniem zakazu dla osób poniżej 15. roku życia. Nowe prawo wejdzie w życie 1 września 2026 roku, wraz z początkiem roku szkolnego.
Prezydent Emmanuel Macron nie ukrywał determinacji. „Mózgi naszych dzieci nie są na sprzedaż ani amerykańskim platformom, ani chińskim algorytmom. Francja podjęła decyzję o ochronie swojej młodzieży przed cyfrową manipulacją” – powiedział Macron podczas przemówienia w Pałacu Elizejskim 28 stycznia.
Dla francuskiego prezydenta walka z uzależnieniem cyfrowym stała się centralnym punktem ostatniego roku urzędowania. We wrześniu 2024 roku Macron rozszerzył zakaz używania telefonów komórkowych w szkołach również na szkoły średnie.
Francuskie prawo różni się jednak od australijskiego w kilku kluczowych aspektach. Po pierwsze, ustala wiek graniczny na 15 lat zamiast 16. Po drugie, przewiduje system kar progresywnych – platformy otrzymają najpierw ostrzeżenie, potem grzywnę do 1 miliona euro, a w przypadku uporczywego łamania przepisów możliwe jest całkowite zablokowanie dostępu do danej platformy we Francji. Po trzecie, francuskie prawo nakłada na platformy obowiązek miesięcznego raportowania o liczbie usuniętych kont nieletnich użytkowników do krajowej komisji regulacyjnej CNIL (Commission Nationale de l’Informatique et des Libertés).
Decyzja Francji ma szerokie poparcie społeczne. Sondaż przeprowadzony przez Harris Interactive 20-22 stycznia 2026 roku pokazał, że 73 procent Francuzów popiera zakaz social mediów dla osób poniżej 15. roku życia. Poparcie jest szczególnie wysokie wśród rodziców dzieci w wieku 10-14 lat (81 procent). To nie pierwsza próba Francji wprowadzenia takich regulacji – w 2023 roku podobny projekt ustawy został zablokowany przez Komisję Europejską z powodu potencjalnego konfliktu z unijnymi regulacjami dotyczącymi swobody przepływu usług cyfrowych.
Tym razem Francja wykorzystała lukę prawną. Nowe prawo nie zakazuje działalności platform, ale nakłada obowiązek weryfikacji wieku zgodnie z art. 8 RODO (Ogólne Rozporządzenie o Ochronie Danych), który pozwala państwom członkowskim UE ustalić wiek zgody na przetwarzanie danych osobowych między 13 a 16 rokiem życia. Francja podniosła ten limit do 15 lat i dodała wymóg uzyskania zgody rodziców dla użytkowników w wieku 15-17 lat.
Wielka Brytania nie zostaje w tyle – Izba Lordów podejmuje decyzję
Tydzień przed francuskim głosowaniem, 22 stycznia 2026 roku, brytyjska Izba Lordów głosowała za procedowaniem podobnego zakazu mediów społecznościowych dla brytyjczyków poniżej 16. roku życia.
Premier Keir Starmer po raz pierwszy publicznie przyznał 24 stycznia, że jego rząd „poważnie rozważa zakaz w stylu australijskim”. „Żadna opcja nie jest wykluczona. Jeśli australijski model udowodni swoją skuteczność w ciągu najbliższych sześciu miesięcy, Wielka Brytania będzie gotowa do wprowadzenia podobnych przepisów jeszcze w 2026 roku” – oświadczył Starmer podczas debaty w Izbie Gmin.
Wielka Brytania rozpoczęła 13 stycznia trwającą trzy miesiące konsultację społeczną dotyczącą wieku minimalnego dla mediów społecznościowych. Do 10 kwietnia 2026 roku rodzice, nauczyciele, eksperci ds. zdrowia psychicznego i przedstawiciele firm technologicznych mogą zgłaszać swoje opinie do specjalnej komisji parlamentarnej.
Brytyjska debata nabrała dramatycznego wymiaru po zaangażowaniu się w nią celebrytów i ofiar cyberprzemocy. Hugh Grant, brytyjski aktor znany z walki o reformę mediów, poparł zakaz podczas wystąpienia w BBC 18 stycznia. „Widziałem, jak social media zniszczyły życie młodych ludzi w moim otoczeniu. To nie jest kwestia wolności słowa – to kwestia ochrony rozwijających się mózgów przed drapieżnymi algorytmami” – powiedział Grant.
Szczególnie poruszającym głosem w debacie jest Esther Ghey, matka 16-letniej Brianny Ghey, która została zamordowana w lutym 2023 roku przez dwóch nastolatków uzależnionych od treści przemocy w social mediach. Ghey zeznawała przed komisją parlamentarną 16 stycznia 2026 roku. „Mordercy mojej córki spędzali po 12 godzin dziennie, oglądając treści o torturach i morderstwach na TikToku i Telegram. Algorytmy nie tylko pokazywały im tę przemoc – nagradzały ich za coraz bardziej ekstremalne wyszukiwania. Żaden 14-latek nie powinien mieć do tego dostępu” – mówiła Ghey ze łzami w oczach.
Dodatkowym impulsem dla brytyjskiej debaty stał się przypadek 14-letniego Joolsa Roome’a z Manchesteru, który popełnił samobójstwo w listopadzie 2025 roku po nękaniu na Snapchacie. Śledztwo koronera wykazało, że Roome otrzymał ponad 500 obraźliwych wiadomości w ciągu 48 godzin przed swoją śmiercią, a algorytmy Snapchata promowały profile znęcających się nad nim osób jako „sugerowanych znajomych” dla jego rówieśników.
Efekt domina – Dania, Hiszpania, Grecja, Włochy, Niemcy na liście oczekujących
Sukces Australii i szybkie działanie Francji uruchomiły reakcję łańcuchową w całej Europie. Co najmniej siedem krajów europejskich oficjalnie ogłosiło plany wprowadzenia podobnych zakazów w 2026 lub 2027 roku.
Dania osiągnęła to, co wydawało się niemożliwe w podzielonej politycznie Europie – konsensus wszystkich partii parlamentarnych. 19 stycznia 2026 roku wszystkie osiem partii reprezentowanych w duńskim Folketingu podpisało wspólną deklarację popierającą zakaz social mediów dla osób poniżej 15. roku życia. „To nie jest kwestia polityczna – to kwestia zdrowia publicznego” – oświadczyła premier Mette Frederiksen. Duński parlament planuje głosowanie w marcu 2026 roku, z wejściem w życie w styczniu 2027 roku.
Hiszpania wyprzedziła pozostałe kraje o krok, podnosząc wiek zgody cyfrowej z 14 do 16 lat już w czerwcu 2024 roku. Teraz rząd premiera Pedro Sáncheza pracuje nad bardziej restrykcyjnymi przepisami. Hiszpański minister cyfryzacji José Luis Escrivá ogłosił 21 stycznia 2026 roku, że Hiszpania wspólnie z Francją przygotowuje inicjatywę na szczeblu Unii Europejskiej, która ma doprowadzić do ustalenia minimalnego wieku 15 lat dla wszystkich państw członkowskich.
Grecja idzie jeszcze dalej. Premier Kyriakos Mitsotakis zapowiedział 25 stycznia wprowadzenie „najsurowszych w Europie przepisów dotyczących ochrony dzieci w internecie”. Greckie prawo, które ma zostać uchwalone do końca marca 2026 roku, nie tylko zabroni dostępu do social mediów osobom poniżej 15. roku życia, ale także wprowadzi obowiązkową aplikację „Kids Wallet” dla wszystkich nieletnich użytkowników internetu w wieku 15-17 lat. Aplikacja będzie monitorować czas spędzany online i automatycznie blokować dostęp po przekroczeniu dziennego limitu czterech godzin. Grecja już w sierpniu 2024 roku zakazała używania smartfonów w klasach na wszystkich poziomach edukacji.
Włochy stają się polem bitwy sądowej między rodzicami a platformami. W grudniu 2025 roku grupa 1200 włoskich rodzin złożyła pozew zbiorowy przeciwko TikTok, Facebookowi i Instagramowi, oskarżając platformy o „świadome projektowanie uzależniających funkcji skierowanych do nieletnich”. Pozew szacuje szkody na 100 milionów euro. Jednocześnie włoski parlament pracuje nad projektem ustawy wprowadzającym zakaz dla osób poniżej 14. roku życia. Premier Giorgia Meloni powiedziała 23 stycznia, że jej rząd „nie waha się przed konfrontacją z Big Tech, jeśli chodzi o bezpieczeństwo włoskich dzieci”. Włoskie dane pokazują dramatyczną skalę problemu – według badania przeprowadzonego przez Università di Milano w listopadzie 2025 roku, 3,5 miliona włoskich dzieci w wieku 7-14 lat regularnie korzysta z mediów społecznościowych, mimo że minimalny wiek według regulaminów platform wynosi 13 lat.
Niemcy, tradycyjnie ostrożne w kwestiach regulacji internetu ze względu na pamięć historyczną o cenzurze, także dołączyły do debaty. Komisja powołana przez Bundestag bada możliwość wprowadzenia zakazu dla osób poniżej 16. roku życia. Minister rodziny Lisa Paus ogłosiła 20 stycznia 2026 roku, że komisja przedstawi raport z rekomendacjami do końca września 2026 roku. „Niemcy nie mogą pozostać cyfrową wyspą, gdy cała Europa podejmuje działania” – powiedziała Paus.
Giganci technologiczni kontratakują – Meta, TikTok i inne firmy walczą o przetrwanie
Platformy społecznościowe nie zamierzają poddawać się bez walki. Meta Platforms, właściciel Facebooka, Instagrama i Threads, opublikowała 18 stycznia 2026 roku 47-stronicowy raport kwestionujący skuteczność zakazów opartych na wieku.
Nick Clegg, prezes ds. globalnych Meta, zaproponował alternatywne rozwiązanie podczas wystąpienia na konferencji w Davos 22 stycznia. Meta proponuje przeniesienie odpowiedzialności za weryfikację wieku z platform na sklepy z aplikacjami – Apple App Store i Google Play Store. „Apple i Google już weryfikują wiek przy zakupie treści, alkoholu i tytoniu w swoich sklepach. To oni powinni weryfikować wiek przed pobraniem aplikacji social mediów” – powiedział Clegg. Propozycja spotkała się z chłodnym przyjęciem ze strony rządów. Apple i Google odmówiły komentarza.
TikTok, platforma najczęściej wymieniana jako główny cel zakazów, opublikowała własny manifest „Bezpieczny TikTok dla Młodzieży” 20 stycznia 2026 roku. Dokument przedstawia dziesięć istniejących funkcji bezpieczeństwa, które według firmy „czynią całkowite zakazy niepotrzebnymi”. Wśród nich: automatyczne prywatne konta dla użytkowników poniżej 16. roku życia, limit 60 minut dziennie dla osób poniżej 18. roku życia (z możliwością przedłużenia przez rodziców) oraz tryb „Family Pairing” pozwalający rodzicom na pełną kontrolę nad aktywnością dziecka.
Snapchat, szczególnie popularny wśród młodzieży, opublikował dane pokazujące, że 82 procent jego użytkowników w wieku 13-17 lat używa aplikacji „głównie do komunikacji z bliskimi przyjaciółmi i rodziną, nie do przeglądania treści publicznych”. Firma twierdzi, że zakazy krzywdzą platformy komunikacyjne bardziej niż algorytmiczne kanały treści.
Reddit jako jedyna duża platforma zdecydowała się na otwartą konfrontację prawną. 15 stycznia 2026 roku Reddit złożył skargę do australijskiego High Court, kwestionując konstytucyjność zakazu. Skarga argumentuje, że zakaz narusza wolność słowa gwarantowaną przez australijską konstytucję. Steve Huffman, CEO Reddit, powiedział: „Chronienie dzieci jest ważne, ale nie możemy pozwolić, aby panika moralna niszczyła fundamenty wolnego internetu”.
Platformy mają jeden wspólny argument: problem leży nie w samych social mediach, ale w sposobie, w jaki są używane. YouTube opublikował 24 stycznia badanie przeprowadzone przez Oxford Internet Institute, które sugeruje, że „umiarkowane korzystanie z social mediów (1-2 godziny dziennie) nie wykazuje negatywnego wpływu na zdrowie psychiczne nastolatków”. Badanie zostało jednak skrytykowane przez niezależnych ekspertów za metodologię i konflikt interesów – YouTube sfinansował znaczną część badania.
Mimo publicznych protestów, platformy milcząco przygotowują się na nową rzeczywistość. Meta zainwestowała 150 milionów dolarów w rozwój technologii weryfikacji wieku w IV kwartale 2025 roku. TikTok testuje system biometrycznej estymacji wieku w Australii od grudnia 2025 roku. Nawet Reddit, pomimo skargi sądowej, rozbudował swój zespół ds. compliance z 12 do 47 osób między grudniem 2025 a styczniem 2026 roku.
Techniczne wyzwania – czy weryfikacja wieku to misja (nie)możliwa?
Największym problemem w egzekwowaniu zakazów jest weryfikacja wieku. Eksperci wskazują na trzy główne metody, z których każda niesie istotne wady.
Pierwsza metoda to tradycijna weryfikacja przez dokumenty tożsamości. Użytkownik przesyła skan paszportu, dowodu osobistego lub prawa jazdy, który jest następnie weryfikowany przez pracowników platformy lub systemy automatyczne. Australia przyjęła tę metodę jako podstawową. Problem? Masowe zbieranie dokumentów tożsamości przez prywatne firmy technologiczne budzi obawy o prywatność i bezpieczeństwo danych. W styczniu 2026 roku hakerzy włamali się do bazy danych australijskiej firmy Age Verification Services, wykradając kopie 89 tysięcy dokumentów tożsamości. Incydent wywołał panikę i wzmocnił obawy krytyków.
Druga metoda to technologia estymacji wieku oparta na sztucznej inteligencji. Systemy analizują zdjęcie twarzy użytkownika lub sposób poruszania się palcami po ekranie telefonu, aby oszacować wiek z dokładnością ±2 lata. Yoti, brytyjska firma specjalizująca się w weryfikacji wieku, twierdzi, że jej system osiąga 98,9 procent dokładności w odróżnianiu osób poniżej i powyżej 16. roku życia. TikTok testuje podobną technologię od grudnia 2025 roku w Australii. Krytycy wskazują jednak, że systemy AI wykazują błąd rasowy – badanie przeprowadzone przez MIT Media Lab w październiku 2025 roku pokazało, że systemy estymacji wieku popełniają o 37 procent więcej błędów przy analizie twarzy osób o ciemniejszym odcieniu skóry.
Trzecia metoda to wnioskowanie z danych – platformy analizują zachowanie użytkownika, jego połączenia społeczne, zawartość udostępnianych treści i inne sygnały, aby oszacować wiek. Meta używa tej metody od 2023 roku, twierdząc, że może zidentyfikować 95 procent użytkowników podających fałszywy wiek. To jednak metoda najbardziej inwazyjna wobec prywatności, wymagająca ciągłej masowej inwigilacji wszystkich użytkowników.
Żadna z metod nie jest całkowicie skuteczna. Australijskie nastolatki już chwalą się w aplikacjach komunikacyjnych Discord i Telegram, jak omijają zakaz. Najpopularniejsze metody: używanie VPN do udawania, że znajdują się poza Australią, tworzenie kont z fałszywymi dokumentami tożsamości wygenerowanymi przez AI, oraz korzystanie z kont rodziców lub starszego rodzeństwa. Australijska eSafety Commissioner Julie Inman Grant przyznała 20 stycznia, że szacunkowo 15-20 procent nastolatków nadal korzysta z zakazanych platform mimo restrykcji.
Ciekawym zjawiskiem jest poszukiwanie alternatyw do zakazanych enumeratywnie aplikacji. Dane z Google Play Store pokazują, że w grudniu 2025 roku liczba pobrań alternatywnych aplikacji social mediów (jak Mastodon, Discord, BeReal) wzrosła o 340 procent wśród australijskich użytkowników w wieku 16-18 lat.
Organizacje praw cyfrowych ostrzegają przed nieoczekiwanymi konsekwencjami. Open Rights Group w Wielkiej Brytanii opublikowała 23 stycznia raport „The Surveillance Age”, argumentując, że systemy weryfikacji wieku „wprowadzają państwo nadzoru przez tylne drzwi”. „Raz stworzona infrastruktura masowej weryfikacji tożsamości może być wykorzystana do znacznie szerszego śledzenia obywateli” – ostrzega raport. Jim Killock, dyrektor wykonawczy Open Rights Group, dodaje: „Chronienie dzieci nie może oznaczać zniszczenia prywatności dla wszystkich użytkowników internetu”.
Badania nie pozostawiają złudzeń – social media niszczą zdrowie psychiczne nastolatków
Mimo kontrowersji wokół zakazów, badania naukowe konsekwentnie pokazują związek między intensywnym korzystaniem z social mediów a pogorszeniem zdrowia psychicznego młodzieży.
Najobszerniejsze badanie przeprowadzone przez Światową Organizację Zdrowia w ramach projektu HBSC (Health Behaviour in School-aged Children) objęło 280 tysięcy młodych ludzi z 44 krajów między 2018 a 2022 rokiem. Wyniki opublikowane w listopadzie 2025 roku pokazują dramatyczny wzrost problematycznego korzystania z social mediów – z 7 procent w 2018 roku do 11 procent w 2022 roku. „Problematyczne korzystanie” oznacza zachowania spełniające kryteria uzależnienia: niemożność kontrolowania czasu spędzonego online, objawy odstawienia, zaniedbywanie innych aktywności, kontynuowanie mimo negatywnych konsekwencji.
Badanie amerykańskiego Surgeon General Vivek Murthy z maja 2023 roku (zaktualizowane w październiku 2025 roku) pokazuje konkretne liczby. Nastolatki spędzające więcej niż trzy godziny dziennie w social mediach mają dwukrotnie wyższe ryzyko doświadczania objawów depresji i lęku w porównaniu do rówieśników spędzających mniej niż godzinę dziennie. Obecnie 95 procent nastolatków w USA korzysta z social mediów, a jedna trzecia przyznaje, że korzysta „prawie nieustannie”.
Szczególnie niepokojący jest wpływ na wizerunek ciała i samoocenę. Badanie Pew Research Center z sierpnia 2025 roku wykazało, że 46 procent nastolatków w wieku 13-17 lat twierdzi, że social media pogorszyły ich postrzeganie własnego wyglądu. Problem dotyka nieproporcjonalnie dziewcząt – 34 procent dziewcząt raportuje negatywny wpływ na wizerunek ciała, w porównaniu do 20 procent chłopców.
Meta została zmuszona do ujawnienia własnych wewnętrznych badań po wyciekach od sygnalistki Frances Haugen w 2021 roku. Dokumenty pokazały, że Facebook wiedział już w 2019 roku, że Instagram „pogarsza problemy z wizerunkiem ciała u jednej na trzy nastolatki” i że „32 procent dziewcząt mówiło, że kiedy czują się źle ze swoim ciałem, Instagram sprawia, że czują się gorzej”. Mimo tej wiedzy, Meta nie podjęła znaczących działań aż do 2023 roku.
Neurobiologiczne podstawy szkodliwości social mediów są coraz lepiej zrozumiane. Badanie opublikowane w Nature Neuroscience przez dr Yuan i zespół z Uniwersytetu Stanforda w styczniu 2024 roku pokazało, że częste sprawdzanie social mediów u nastolatków (ponad 15 razy dziennie) wywołuje zmiany strukturalne w mózgu podobne do tych obserwowanych przy uzależnieniach behawioralnych. Konkretnie, obszary odpowiedzialne za kontrolę impulsów (przedni zakręt obręczy) wykazują zmniejszoną aktywność, podczas gdy obszary odpowiedzialne za oczekiwanie nagrody (jądro półleżące) są przewrażliwione.
Szczególnie szkodliwe są algorytmiczne kanały treści – TikTok, Instagram Reels, YouTube Shorts. Wewnętrzne dokumenty TikTok ujawnione przez Wall Street Journal w październiku 2025 roku pokazują, że algorytm platformy jest świadomie zaprojektowany tak, aby maksymalizować czas spędzony w aplikacji, a nie dobro użytkownika. Młodzi użytkownicy oglądający treści o depresji otrzymują więcej podobnych treści, co tworzy „spiralę negatywności”. TikTok wie o tym – wewnętrzne memo z marca 2023 roku stwierdza: „Kompulsywne użytkowanie = wysoki engagement = wyższe przychody reklamowe” – ale firma nie zmieniła swojego podstawowego modelu biznesowego.
Co dalej z Unią Europejską? Bruksela bada teren
Podczas gdy poszczególne państwa członkowskie wprowadzają własne zakazy, Unia Europejska stoi przed dylematem: jak pogodzić narodowe regulacje z zasadą jednolitego rynku cyfrowego?
Parlament Europejski przyjął 28 stycznia 2026 roku rezolucję wzywającą Komisję Europejską do „rozważenia ustalenia minimalnego wieku dla dostępu do mediów społecznościowych na poziomie całej UE”. Głosowanie było jednak symboliczne – rezolucja nie ma mocy prawnie wiążącej i służy głównie jako polityczny sygnał. Komisja odpowiedziała ostrożnie. Thomas Regnier, rzecznik prasowy komisarza ds. rynku wewnętrznego Thierry’ego Bretona, powiedział 29 stycznia: „Decyzje dotyczące wieku zgody cyfrowej należą do państw członkowskich zgodnie z artykułem 8 RODO. Komisja nie planuje obecnie narzucać jednolitego wieku na poziomie UE”.
Sytuacja prawna jest skomplikowana. RODO pozwala państwom członkowskim ustalić wiek zgody na przetwarzanie danych osobowych między 13 a 16 rokiem życia, ale nie daje bezpośredniej podstawy do całkowitego zakazu dostępu do usług online. Francja i inne kraje argumentują, że zakaz jest de facto regulacją wieku zgody, nie zakazem usług, co czyni go zgodnym z prawem UE. Inni prawnicy widzą w tym naginanie prawa wspólnotowego.
Francja i Hiszpania próbują rozwiązać ten problem na szczeblu europejskim. 10 maja 2025 roku oba kraje złożyły wspólną inicjatywę legislacyjną wzywającą do ustalenia minimalnego wieku 15 lat dla całej UE. Inicjatywę poparły Włochy, Dania i Grecja. Niemcy i Holandia są sceptyczne, obawiając się nadmiernej ingerencji państwa. Polska zajęła neutralne stanowisko, czekając na rozwój sytuacji.
Komisja Europejska wskazuje, że istniejące prawo – Digital Services Act (DSA), który wszedł w pełni w życie w lutym 2024 roku – już zawiera znaczące środki ochrony nieletnich. DSA wymaga od bardzo dużych platform online (Very Large Online Platforms, VLOPs) przeprowadzania corocznych ocen ryzyka dla nieletnich użytkowników i wdrażania środków mitygacyjnych. TikTok, Instagram, Facebook, YouTube i Snapchat – wszystkie sklasyfikowane jako VLOPs – muszą przedstawić swoje pierwsze pełne raporty compliance do końca lutego 2026 roku.
Rzeczywistość pokazuje jednak, że platformy próbują minimalizować swoje obowiązki pod DSA. Pierwsza ocena ryzyka TikTok, złożona do Komisji we wrześniu 2025 roku, została odrzucona jako „powierzchowna i niepełna”. Komisja otworzyła formalne postępowanie przeciwko TikTok 15 listopada 2025 roku, które może zakończyć się karami do 6 procent globalnego obrotu firmy.
Unia Europejska pracuje też nad praktycznymi rozwiązaniami weryfikacji wieku. W grudniu 2025 roku Komisja ogłosiła pilotażowy program testowania europejskiej aplikacji weryfikacji wieku opartej na technologii blockchain, która pozwoliłaby użytkownikom potwierdzać swój wiek bez ujawniania pełnej tożsamości platformom. System będzie testowany w pięciu krajach: Hiszpanii, Francji, Grecji, Danii i Włoszech, począwszy od kwietnia 2026 roku. „Jeśli uda się rozwiązać problem weryfikacji wieku z poszanowaniem prywatności, usuniemy główną przeszkodę techniczną dla skutecznych zakazów” – powiedział europejski komisarz ds. cyfryzacji podczas konferencji prasowej 12 grudnia 2025 roku.
