آزارگران آنلاین با تولید تصاویر و صداهایی، قربانیان خود را در موقعیتهای خشونتآمیز شبیهسازی میکنند.

کیتلین روپر با وجود سالها فعالیت در فضای اینترنت که او را آبدیده کرده بود، از تهدیدهای آنلاینی که امسال دریافت کرد، به شدت آسیب روحی دید.
یکی از تصاویر، او را در حالی نشان میداد که از حلقه طناب دار آویزان شده و مرده است. در تصویری دیگر، او در میان شعلههای آتش فریاد میکشید.
این پستها بخشی از موج شدیدی از نفرتپراکنی بود که در شبکه X و دیگر پلتفرمهای اجتماعی علیه خانم روپر و همکارانش در گروه فعال استرالیایی «کالکتیو شات» به راه افتاد. به نظر میرسید بخشی از این محتوا، از جمله تصاویری که این زنان را در حال سلاخی شدن، گردن زدن یا انداخته شدن در دستگاه خردکننده چوب نشان میداد، با کمک هوش مصنوعی مولد ساخته شده و به آنها واقعیگرایی وحشتناکی بخشیده بود. در برخی از این تصاویر، خانم روپر همان لباس گلدار آبیرنگی را به تن داشت که در واقعیت هم آن را دارد.
او میگوید: «همین جزئیات عجیب و کوچک باعث میشود که این تصاویر واقعیتر به نظر برسند و به نوعی، حس متفاوتی از تجاوز به حریم شخصی را منتقل کنند. این چیزها میتوانند از خیال فراتر رفته و به چیزی بیش از آن تبدیل شوند.»
هوش مصنوعی پیش از این نیز به دلیل تواناییاش در تقلید صدای واقعی برای کلاهبرداری یا تولید محتوای پورنوگرافی دیپفیک بدون اجازه سوژه، نگرانیهایی را برانگیخته بود. اکنون، این فناوری برای تهدیدهای خشونتآمیز نیز به کار گرفته میشود و با شخصیسازی بیشتر، متقاعدکنندهتر کردن و آسانتر کردن ارسال آنها، ترس را به حداکثر میرساند.
هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا، برکلی، میگوید: «هرگاه فناوریای مانند این توسعه پیدا میکند، دو اتفاق همیشه رخ میدهد: ما راههای هوشمندانه، خلاقانه و هیجانانگیزی برای استفاده از آن پیدا میکنیم و همچنین راههای وحشتناک و هولناکی برای سوءاستفاده از آن خواهیم یافت. آنچه ناامیدکننده است، این است که هیچکدام از اینها غافلگیرکننده نیست.»



