ناتوانی هوش مصنوعی در پالایش شبکه‌های اجتماعی

حذف محتواهای مضر از شبکه‌های اجتماعی، تبدیل به یک دغدغه فراگیر در دنیا شده است. سؤال اصلی اینجاست که چگونه می‌توان این محتواها را حذف کرد؟ آیا در این خصوص فرمول و راهکاری عملیاتی وجود دارد یا باید صرفا به گزارش کاربران شبکه‌های اجتماعی و متعاقبا حذف محتواهای مستهجن اکتفا کرد؟ صاحبان اصلی  شبکه‌های اجتماعی از ابزارهای هوش مصنوعی استفاده می‌کنند تا به قول خود  محتوای مضر را حذف کرده و محتوای دیگر را، صرف‌نظر از تعداد بازدیدهایی که آن‌ها داشته‌اند، برای بررسی توسط ناظران انسانی علامت‌گذاری کنند.بااین‌حال چنین روشی دو آسیب اساسی دارد:نخست اینکه معیارهای بررسی  محتواها ( اینکه چه محتوایی مستهجن خوانده می‌شود) توسط صاحبان شبکه‌های اجتماعی از یک استاندارد عمومی پیروی نمی‌کند. در برخی شبکه‌های اجتماعی یک محتوا مستهجن و در برخی دیگر، غیرمستهجن خوانده می‌شود. نکته مهم‌تر اینکه ابزارهای هوش مصنوعی نمی‌توانند همه‌چیز را شناسایی کنند.بررسی  همه ویدئوهایی که هوش مصنوعی حذف نکرده یا برای ناظران انسانی علامت‌گذاری نشده بودند - یا کاربران دیگر آن‌ها را به ناظران گزارش نکرده بودند – نشان می‌دهد این محتواها فقط در صورتی دوباره  بررسی می‌شدند که به آستانه بازدید مشخصی برسند. یعنی یک محتوای مستهجن با بازدید محدود می‌تواند در شبکه‌های اجتماعی باقی بماند، حتی اگر با استانداردها و خطوط قرمز آن در تعارض باشند. بی‌دلیل نیست که  بیشتر شرکت‌های بزرگ شبکه‌های اجتماعی به افراد ۱۳ ساله یا بالاتر اجازه ثبت‌نام می‌دهند.در این میان شبکه‌های اجتماعی آمارها و اطلاعاتی را منتشر می‌کنند. به‌عنوان‌مثال، تیک‌تاک اعلام کرده است که ۹۹٪ از محتوایی که به دلیل نقض قوانینش حذف می‌شود، توسط هوش مصنوعی یا ناظران انسانی قبل از رسیدن به ۱۰هزار بازدید حذف می‌شود. همچنین گفته است که بررسی‌های پیشگیرانه‌ای را روی ویدئوهایی با بازدید کمتر از این تعداد انجام می‌دهد.یکی دیگر از آسیب‌هایی که متوجه این روند است، معطوف به عملکرد ناظران سایت است.  بیشتر ویدئوها را ابزارهای هوش مصنوعی حذف یا به ناظران گزارش می‌کردند، ولی سایت به کاربران تکیه می‌کرد تا ویدئوها را پس از تماشای آن‌ها گزارش کنند.به همین سبب،  الگوریتم‌های تمام شرکت‌های بزرگ شبکه‌های اجتماعی به کودکان محتوای مضر را پیشنهاد می‌دهند، حتی اگر ناخواسته باشد.بنابراین، در پالایش شبکه‌های اجتماعی نمی‌توان به ابزارهای مکانیکی و هوش مصنوعی بسنده کرد.نظارت دقیق بر این روند، یک الزام در سالم‌سازی حداکثری محیط شبکه‌های اجتماعی برای کودکان و نوجوانان محسوب می‌شود. 
ناتوانی هوش مصنوعی در پالایش شبکه‌های اجتماعی
دریافت همه صفحات
دانلود این صفحه
آرشیو