Created 1 Hour ago, written in Plain Text.
This paste will expire in 3 Weeks.
URL to give to customer service https://pastebin.support.one/view/f7c7bf34
  1. Были ли примеры, когда цензура в Интернете начиналась с защиты детей, а потом из-за этого перекидывалась на другие вещи и можно легко отследить, что защита детей была тараном?
  2. Или другие ужесточения которые начинались с детей.Да, такие примеры действительно есть. Цензура или ужесточение контроля в интернете часто начиналась именно под лозунгом «защиты детей» (от порнографии, суицидального контента, педофилии или вредной информации), а потом инфраструктура (чёрные списки, фильтры, блокировки) использовалась для более широких ограничений. Это классический «таран» (или slippery slope), который критики неоднократно фиксировали. Ниже — самые отчётливые и легко отслеживаемые случаи, где можно проследить цепочку от «детей» к «всему остальному».
  3. 1. Россия — самый прозрачный и документированный пример
  4.  
  5. Старт с «защиты детей» (2010–2012 гг.): Федеральный закон № 436-ФЗ «О защите детей от информации, причиняющей вред их здоровью и развитию» (2010) ввёл возрастную маркировку и запреты на «вредную» информацию (порно, пропаганда наркотиков, суицида). В 2012 году его дополнили законом № 139-ФЗ («закон о чёрном списке»): создали единый реестр запрещённых сайтов, который Роскомнадзор мог блокировать без суда за детскую порнографию, призывы к суициду и наркотики. Официально — исключительно ради детей.
  6. Перекидывание на другие вещи: Уже через несколько лет тот же реестр и механизм блокировок начали использовать для:
  7. «Экстремистских» материалов,
  8. «фейковых новостей»,
  9. «дискредитации армии»,
  10. оппозиционных ресурсов,
  11. даже отдельных страниц в соцсетях.
  12. Медuza прямо озаглавила материал: «От „защиты детей“ до „дискредитации армии“». Инфраструктура, запущенная под детей, стала основой массовой цензуры. В 2012 году даже русская Википедия устроила blackout в знак протеста.
  13.  
  14. Это один из самых чистых случаев «тарана»: закон буквально назывался «о защите детей», а потом стал инструментом общего контроля.
  15. 2. Австралия (предложение обязательного фильтра 2009–2010 гг.)
  16.  
  17. Старт: Правительство предлагало обязательный ISP-фильтр (Cleanfeed-подобный), который должен был блокировать только «Refused Classification»-контент — в первую очередь детскую порнографию, насилие и т.д. Чёрный список вёлся ACMA (регулятор). Официально — «защита детей и семей».
  18. Что произошло на практике: Список утёк в WikiLeaks. В нём оказались не только детское порно, но и:
  19. обычная порнография,
  20. азартные сайты,
  21. даже взломанный сайт стоматолога и страница о питомцах (из-за одного хака с порно).
  22. Планировалось расширить список в 20 раз (до 10 000 сайтов). Критики (EFA, сенаторы) прямо говорили: это не про детей, а про создание механизма тотальной цензуры. В итоге проект свернули из-за скандала, но сам факт утечки и состава списка показал, как «детский» список мгновенно превращается в инструмент шире.
  23.  
  24. 3. Великобритания — Cleanfeed / IWF (с 2004 г.)
  25.  
  26. Старт: BT (British Telecom) и Internet Watch Foundation создали систему Cleanfeed — блокировку по URL-списку только материалов с детским сексуальным насилием (CSAM). Остальные провайдеры подключились под давлением правительства и общественности («защита детей»).
  27. Перекидывание: В 2008 году IWF заблокировала страницы Википедии с обложкой альбома Scorpions 1976 года (фото обнажённой девочки — спорный, но не типичный CSAM). Из-за технической реализации (прокси) пострадали редактирование Википедии по всей стране. Это показало отсутствие прозрачности и лёгкость переползания за рамки «детской порнографии». Хотя система формально осталась узкой, инцидент стал хрестоматийным примером mission creep.
  28.  
  29. 4. США — FOSTA-SESTA (2018)
  30.  
  31. Старт: Закон «Allow States and Victims to Fight Online Sex Trafficking Act / Stop Enabling Sex Traffickers Act». Официально — борьба с секс-траффикингом (включая несовершеннолетних) и «защита жертв, в том числе детей».
  32. Что получилось: Платформы потеряли часть иммунитета по Section 230. В результате:
  33. Массово удалили рекламу секс-работы (даже consensual adult),
  34. Закрылись «списки плохих клиентов»,
  35. Пострадали ЛГБТК+-контент, секс-просвещение и целые нишевые сайты.
  36. EFF, ACLU и секс-работники называют это «цензурой под видом борьбы с торговлей людьми». Закон не сократил траффикинг, зато резко сузил пространство для легального adult-контента.
  37.  
  38. Другие «детские» ужесточения с похожим эффектом
  39.  
  40. CIPA (США, 2000): Фильтры в школах и библиотеках за федеральные деньги якобы только от порно. На практике блокируют ЛГБТК-сайты, информацию о здоровье, оружии и т.д. (EFF документировал это как системный перебор).
  41. KOSA (США, обсуждается/принимается сейчас): «Защита детей от вредного контента в соцсетях». Критики (EFF, ACLU) прямо говорят: это позволит штатам судить платформы за «вред» (включая ЛГБТК-темы, аборты, психическое здоровье), что приведёт к самоцензуре.
  42.  
  43. Вывод: Во всех случаях «защита детей» — это политически беспроигрышный старт. Никто не хочет выглядеть «против детей». А дальше уже легко добавлять категории («экстремизм», «фейки», «вредные ценности»). Механизм (чёрные списки, фильтры, возрастная верификация) создаётся под благородным предлогом, а потом масштабируется. Это не теория заговора — это задокументированные истории с утечками списков, судебными исками и публичными протестами.
  44. Если хочешь углубиться в какой-то конкретный кейс (например, актуальные австралийские запреты соцсетей для детей до 16 лет или российский реестр), скажи — могу привести больше деталей и ссылок.