شرکت اپل پنجشنبه اعلام کرد که «آیفونها» و «آیپدها» به زودی تشخیص تصاویر حاوی سوءاستفاده جنسی از کودکان، و گزارش آنها هنگام بارگذاری در فضای آنلاین در آمریکا را آغاز میکنند.
به گزارش خبرگزاری فرانسه، این اقدام موجب نگرانی حامیان حفظ حریم خصوصی شده است.
شرکت اپل در بیانیه خود میگوید: «ما میخواهیم از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای جذب و سوءاستفاده از آنها بهره میگیرند، محافظت کنیم و انتشار محتوای سوءاستفاده جنسی از کودکان را محدود کنیم.»
به گفته اپل، این فناوری جدید به نرمافزارهای قدرتمند گوشیهای اپل اجازه میدهد این عکسهای غیراخلاقی در تلفن کاربران را با تصاویر موجود در پایگاه دادههای ارائه شده توسط سازمانهای ایمنی کودکان، مطابقت دهند.
این تصاویر هنگام بارگذاری در فضای ذخیرهسازی آنلاین «آیکلاود» علامتگذاری میشوند.
با این حال چند سازمان حقوق دیجیتالی میگویند که این تغییرات در سیستم عاملهای اپل برای ابزارهایی که میتواند مورد استفاده دولتها یا گروههای دیگر قرار گیرد، یک «درِ پشتی» بالقوه را ایجاد میکند.
اپل مدعی است که به تصاویر دسترسی مستقیم نخواهد داشت و بر اقدامات خود برای حفاظت از حریم خصوصی و امنیت تأکید کرده است.
به گفته این غول فناوری، تطبیق عکسها «با استفاده از فناوری رمزنگاری» شده و فقط با هدف یافتن تصاویری که شامل سوءاستفاده جنسی کودکان است، صورت میگیرد.
بر اساس بیانیه شرکت اپل، این شرکت چنین تصاویری را به مرکز ملی کودکان مفقود، یا استثمارشده - مرکزی که با پلیس همکاری میکند - گزارش خواهد کرد.