این وبلاگ مهمان توسط جان کار، یکی از مقامات برجسته جهان در زمینه استفاده کودکان و جوانان از اینترنت و فناوری های جدید مرتبط با آن. در این مقاله او تأثیر احتمالی (ویرانگر) پیشنهاد فیس بوک برای رمزگذاری سیستم عامل های خود را مشخص می کند و بنابراین سازمان های محافظت از کودکان را قادر به کشف و حذف مواد سو abuse استفاده جنسی کودکان در آینده می کند.

ما وبلاگ های دیگری از جان در برجسته کرده ایم تایید سن, پوشش، و اتحاد جهانی WeProtect.

چهارشنبه گذشته مرکز ملی کودکان مفقود و استثمار شده ایالات متحده (NCMEC) شماره های آن را منتشر کرد برای سال 2020. 16.9 میلیون گزارش دریافتی در سال 2019 به 21.7 میلیون گزارش در سال 2020 رسیده است. این بیش از 25 درصد است. سیستم عامل های پیام رسانی همچنان بزرگترین منبع هستند.

21.4 میلیون گزارش سال 2020 مستقیماً از طریق خود مشاغل آنلاین تهیه شده است که موجودی آن از طرف عموم مردم است. مورد دوم افزایش سه برابری در سال 2019 را نشان می دهد. به طرز قابل توجهی ، در گزارش های اغوا آنلاین ، سالانه افزایش تقریبا 100 درصدی وجود دارد. نتیجه قفل شدن در مقیاس بزرگ در سراسر جهان؟ شاید.

21.7 میلیون گزارش ، از جمله موارد دیگر ، حاوی 31,654,163،33,690,561،XNUMX فایل ویدیویی و XNUMX،XNUMX،XNUMX پرونده حاوی تصاویر ثابت بود. یک گزارش واحد می تواند بیش از یک مورد را ارجاع دهد.

بنابراین ، در تعداد کل گزارش ها ، تمرکز عمده ای بر روی برخورد با تصاویر غیرقانونی از یک نوع یا نوع دیگر است اما 120,590 "پرونده های دیگر"  در نمودار NCMEC نشان داده شده است همچنین تهدیدهای جدی برای کودکان است.

با 2,725,518،1،XNUMX گزارش ، هند ، بار دیگر ، در فهرست کشورها قرار دارد. فیلیپین ، پاکستان و الجزایر در رتبه های بعدی قرار دارند ، که فاصله زیادی با آنها فاصله دارد اما هنوز هم بیش از مرز XNUMX میلیون نفر است.

خبر خوب یا خبر بد؟ 

افرادی که مخالف اسکن پیشگیرانه سو sex استفاده جنسی از کودکان در سیستم عامل پیام هستند ، گاهی اوقات به این اعداد اشاره می کنند و می گویند چون همیشه در حال افزایش هستند ، این ثابت می کند که اسکن بازدارنده مفیدی نیست. برخی می گویند ما حتی باید خط مشی را هم بنامیم "یک شکست".

از آنجا که جنایتکاران قاطعانه از انجام بازپرداخت سالانه خودداری می کنند و با بیان برنامه های خود برای 12 ماه آینده ، صادقانه آنچه را که سال گذشته انجام دادند ، اعلام نمی کنند ، ما هرگز نمی دانیم که چه مقدار csam در آنجا بوده است ، یا احتمالاً وجود دارد یا چه تعداد تلاش شده است و یا می شود کودکان را به شیوه سوually استفاده جنسی درگیر کرد. بنابراین اعداد جدید NCMEC می توانند به ما بگویند که در تشخیص بهتر می شویم. کاری که آنها قطعاً انجام نمی دهند این است که برای رها کردن این منطقه از مبارزه با جرم ، خلع ید از قربانیان ، اعلام پیروزی برای کودک آزاران و غیرقابل کنترل بودن فضای آنلاین ، مجوز بدهند.

ابزار بهتر

ابزاری که اکنون در اختیار ماست بهتر از گذشته بوده و به طور گسترده تر و با انرژی بیشتری به کار گرفته می شوند. و البته تعداد کاربران اینترنت امسال بیشتر از سال گذشته است. مطمئناً بخشی از این افزایش وجود دارد که فقط به این نوع رشد آلی مربوط می شود. انتظار می رود با گسترش دسترسی به wifi و پهنای باند و بیشتر و بیشتر اینترنت در جهان ، این امر برای مدتی ادامه یابد.

در هر و همه زمینه های جرم ، کشف و پرداختن به رفتار مجرمانه پس از واقعه همیشه باید باشد یا باید فقط بخشی از یک استراتژی بزرگتر باشد که در آن همیشه پیشگیری از طریق آموزش و افزایش آگاهی ترجیح داده شود. اما این ایده که شما باید از تلاش برای کاهش اثرات رفتار مجرمانه در هر کجا و هر زمان که می توانید امتناع ورزید ، هم قلب شماست و هم توهین به کودک قربانی است. عملکردها بلندتر از کلمات صحبت می کنند و هیچ عملی همچنان بلندتر صحبت نمی کند.

در همین حال در اتحادیه اروپا

هفته قبل NCMEC آمار منتشر شده گزارش های دریافت شده از کشورهای عضو اتحادیه اروپا بود پایین با 51٪ از دسامبر سال 2020. این تاریخی است که کد ارتباطات الکترونیکی اروپا اعمال می شود.

در برابر جهانی کلی قرار بگیرید بالا آمدن بنابراین ، در گزارش ، ترس باید از این باشد که با گزارش دادن درصد سقوط در گزارش های کشورهای عضو اتحادیه اروپا ، بچه های اروپایی ممکن است حتی از کودکان در سایر نقاط جهان نیز وضع بدتری داشته باشند. کمیساریای یوهانسون با اشاره به در اتحادیه اروپا 663 گزارش در روز است نه ساخته شده است که در غیر این صورت می شده است. اگر سطح گزارش دهی ثابت بماند ، این درست خواهد بود. بدیهی است که این چنین نیست ، به این معنی که احتمالاً تعداد واقعی گزارشات غیرحضوری در شمال 663 گزارش خواهد بود.

و هنوز پارلمان اروپا روند اصلاحات را فلج می کند.

فیس بوک در مانور

بیایید یادآوری کنیم که دسامبر گذشته ، قانون جدید آغاز شد. فیس بوک ، یک شرکت دعوا و دعوای مشهور ، تصمیم گرفت با متوقف کردن اسکن برای سو sex استفاده جنسی از کودکان ، رهبران این صنعت را شکست. فیس بوک می توانست با آن مبارزه کند یا مانند همکارانشان آن را نادیده بگیرند. آنها هم انجام ندادند.

Cynics پیشنهاد کرده است که تصمیم این شرکت برای غلبه بر مثل یک سگ توله سگ مطیع الهام گرفته از تمایل به ایجاد زمینه برای بلند مدت اعلام شده خود برای معرفی رمزگذاری قوی به مسنجر و اینستاگرام مستقیم است. اگر راهی قانونی برای اسکن سیستم عامل های پیام رسانی وجود نداشته باشد ، رمزگذاری شده یا نبودن سیستم عامل ها تقریباً از اهمیت برخوردار است.

به نظر می رسد تصمیم دسامبر فیس بوک مخالفت گروه هایی را که همیشه مخالف اسکن کردن مطالب و رفتارهایی هستند که کودکان را تهدید می کند ، قانونی می داند.

سرزنش کردن بیشترین سو استفاده از حریم خصوصی در طول تاریخ سیاره زمین با انجام یک چهره کاملاً ولت ، و انجام این کار با هزینه کودکان و شهروندان قانون مدار ، نفس شما را می گیرد. هیچ کلمه ای گرم نمی تواند آن را بشویید.

یک لحظه این فکر را نگه دارید.

موضوع زمان بندی است؟

فیس بوک اخیراً تحقیقاتی را در زمینه فعالیتهای سو abuse استفاده جنسی از کودکان در سیستم عامل آنها انجام داده است. نتایج تازه بدست آمده است منتشر شده در یک وبلاگ

دو مطالعه جداگانه وجود داشت. هر دو مورد در مورد اسکن پیشگیرانه برای محافظت از کودکان شک و تردید می کنند.

این یک گسست اساسی با گذشته فیس بوک است. آنها با افتخار و بارها و بارها تعهد خود را برای اسکن پیشگیرانه محتوا و فعالیتهایی که کودکان را تهدید می کند اعلام می کردند. در واقع به اعتبار آنها ، آنها اسکن علائم افرادی را که احتمالاً خودزنی می کنند و خودکشی می کنند ، ادامه داده اند. گرچه کاملاً آنها می دانند که با آنچه در رابطه با سو sex استفاده جنسی کودک انجام می دهند لحظه ای از من دور است.

چه کسی می تواند مخالف تحقیق باشد؟ من نه. اما همان عوام فریبی که قبلاً به آنها اشاره کردم دیری نپذیرفتند که زمان انتشار این تحقیق باعث تعجب می شود که آیا این کار با خالص ترین انگیزه ها انجام شده است؟ آیا افرادی که واقعاً کار را انجام داده اند یا تصمیم به انتشار چه زمانی گرفته اند مکث کرده اند که آیا مورد دستکاری قرار گرفته اند؟

تعجب

اولین تحقیق از دو مطالعه نشان داد که در ماه های اکتبر و نوامبر سال 2020 ، 90٪ از کل محتوای موجود در سیستم عامل آنها و گزارش شده به NCMEC مربوط به مطالبی است که یکسان یا بسیار مشابه با مطالب گزارش شده قبلی است.

ممکن است کسانی که برای مدت طولانی در این زمینه کار کرده ایم تعجب کنند که این میزان 90٪ پایین است. من همیشه درک کرده بودم که درصد تکرارها در دهه 90 بسیار زیاد است. درصدهای بالا نشان می دهد که ابزارهای پیشگیرانه وظیفه خود را انجام می دهند. به همین دلیل استفاده مداوم آنها از اهمیت ویژه ای برخوردار است ، به ویژه برای قربانیانی که در تصاویر به تصویر کشیده شده اند. این واقعیت که یک تصویر تکرار می شود ، صدمه ای که به کودک وارد شده را نشان می دهد و بزرگ می کند. مطمئناً آن را کم نمی کند.

قربانیان می توانند و باید ادعا کنند شان حق قانونی حریم خصوصی و کرامت انسانی. آنها خواهان از بین رفتن هر نمونه از تصویر هستند ، مهم نیست که چند بار یا کجا ظاهر شده است.

انتشار شماره ای مانند "بیش از 90٪" بدون توضیح این نوع زمینه ها ، یک ناظر ناآگاه به عنوان مثال کسی که عجله دارد و مقالات زیادی را برای خواندن دارد ، منجر به تعجب می کند که این همه هیاهو چیست؟

توجه داشته باشید که در گزارش NCMEC گزارش آنها دریافت گزارش های 10.4 میلیون نفر بوده است منحصر به فرد تصاویر. این به طور خاص آنها را از تکرار متمایز می کند. تکرارهایی است که از ما خواسته می شود باور کنیم 90٪ از بار در تحقیقات فیس بوک را تشکیل می دهد.

برداشت های بالقوه گمراه کننده

در همان وبلاگ و با اشاره به همان مطالعه فیس بوک ادامه می دهد و به ما می گوید "فقط شش "ویدئوها مسئول آن بودند بیش از نیمی " از تمام گزارشاتی که آنها به NCMEC داده اند. جدا از اینکه به حدس و گمان در مورد تعداد ویدیوهای نیمه دیگر بپردازیم ، سوال واضح این است "و نظر شما؟"  

حدس من این است که آنچه در ذهن افراد مشغول خواهد ماند چیست "شش"  شش و 90٪ شماره های عنوان مراقب تکرار آنها باشید ، خوب شما می دانید چه کسی توسط آنها تکرار می شود.

مطالعه دوم

با توجه به یک بازه زمانی متفاوت (چرا؟) ، ژوئیه-آگوست ، 2020 و ژانویه 2021 ، و یک گروه متفاوت ، بسیار کوچکتر (فقط 150 حساب) به ما گفته می شود افرادی که csam را بارگذاری کردند که به NCMEC گزارش شده است ٪۱۰۰ این کار را بدون آشکار انجام داد "قصد سوicious نیت ».  در مقابل ، تحقیقات نشان می دهد افرادی که مرتکب جرم بارگذاری csam شده اند از یک "احساس خشم" یا چون فکر می کردند این خنده دار است. 75٪ این شماره عنوان دیگری است که می ماند و تکرار می شود.

شاید مقاله ای در جایی وجود داشته باشد که چگونگی نتیجه گیری فیس بوک در مورد عدم وجود را توضیح می دهد "قصد سوicious" من نمیتوانم پیدایش کنم. اما بررسی تأثیر خالص مانورهای به موقع مختلف خودکارسازی فیس بوک کار سختی نیست.

مخاطبان هدف سیاستمداران و روزنامه نگاران هستند

در لحظه ای که فیس بوک می خواهد مردم - و منظور من منظور آن عمدتا سیاستمداران و روزنامه نگاران است - در اروپا ، ایالات متحده آمریکا و جاهای دیگر ، شروع به فکر کردن کنند که مسئله سو abuse استفاده جنسی کودک از طریق اینترنت متفاوت و بسیار کوچکتر از آن است که قبلاً تصور می کردند و این این اساساً به سفاهت انسانی (معذورانه) بر می گردد.

با این وجود حقیقت غیرقابل تغییر تصاویر باید از بین بروند. این آغاز و پایان آن است. اگر ابزار لازم برای خلاص شدن از شر تصاویر غیرقانونی درد و تحقیر کودکان را داریم ، چرا چنین نمی کنیم؟ در عوض ، چرا ما آنها را عمدا پنهان می کنیم؟ پول تنها جوابی است که می توانم پیدا کنم و به اندازه کافی خوب نیست.

جایگزین های ضعیف

در قسمت سوم همین وبلاگ، فیس بوک در مورد کارهای دیگری که قصد انجام آن را دارد به ما می گوید. آنها به عدم ذوق ظاهری افراد در شوخی یا حماقت آنها رسیدگی خواهند کرد.

تاکنون آنها با دو پنجره بازشو ارائه شده اند. براوو. به هر حال فیس بوک باید آنها را کنار بگذارد. هیچ یک از آنها به جبران برنامه های خود در زمینه رمزگذاری نزدیک نمی شوند. در هر مرحله دیگر از زندگی اگر گروهی از مردم برای مخفی کردن شواهد جنایات با هم ترکیب شوند حدس می زنم که آنها دستگیر و به جرم توطئه برای جلوگیری از مسیر عدالت متهم می شوند.

اعداد فیس بوک در سال 2020

نتایج تحقیقات فیس بوک در اواسط ردیف در اتحادیه اروپا ظاهر شد. آنها درست در برابر انتشار شماره های جدید NCMEC بودند.

در سال 2019 NCMEC 16,836,694،15,884,511،94 گزارش دریافت کرده است که 2020،21.7،20,307,216 گزارش (93٪) از سیستم عامل های متعلق به فیس بوک بوده است. در سال XNUMX از XNUMX میلیون نفر ، XNUMX،XNUMX از سیستم عامل های مختلف فیس بوک (XNUMX٪) بوده است.

اگرچه من نسبت به فیس بوک بسیار انتقادی هستم اما ما نباید دو انتخاب مهم را فراموش کنیم. آنها با بزرگترین پلت فرم در فضای رسانه های اجتماعی هستند. و ما فقط اطلاعات زیادی در مورد آنها داریم زیرا داده ها در دسترس هستند. این بدان دلیل است که دو برنامه پیام رسان اصلی آنها ، Messenger و Instagram Direct ، هنوز رمزگذاری نشده اند.

بنابراین باید تعجب کنید که در سایر سیستم عامل های پیام رسانی که قبلاً خدمات خود را رمزگذاری کرده اند و تقریباً هیچ داده ای تولید نمی کنند ، چه اتفاقی می افتد. در واقع ، ما نیازی نیست که این همه تعجب کنیم.

نیم نگاهی پشت در رمزگذاری شده

جمعه پیش تایمز  در سال 2020 پلیس انگلیس 24,000 اخبار فیس بوک و اینستاگرام دریافت کرد. اما فقط 308 از واتس اپ. WhatsApp از قبل رمزگذاری شده است.

با 44.8 میلیون کاربر انگلیس پس از هند و ایالات متحده آمریکا سومین مشتری فیس بوک در جهان را دارد. اینستاگرام 24 میلیون کاربر در انگلیس دارد. بدیهی است که احتمالاً همپوشانی زیادی با فیس بوک و برنامه های پیام رسان و اینستاگرام آن وجود دارد. واتس اپ 27.6 میلیون کاربر در انگلیس دارد.

غیرممکن است که بگوییم شماره WhatsApp چیست "باید" - بیش از حد غیر قابل تحمل - اما نسبت 308: 24,000،XNUMX کمی دور به نظر می رسد. اگر چیزی وجود داشته باشد ، انتظار می رود میزان بازدید در تصاویر غیرقانونی در WhatsApp بیشتر باشد دقیقاً به این دلیل که از قبل رمزگذاری شده است. راجع به آن فکر کن.