الگوریتم‌های شخصی‌سازی توهم صلاحیت را به وجود می‌آورند، پژوهش نشان می‌دهد

یک مطالعه جدید که در مجله روانشناسی آزمایشی: عمومی منتشر شده است، نشان می‌دهد که الگوریتم‌های شخصی‌سازی به کار رفته در پلتفرم‌های محتوای آنلاین می‌توانند به‌طور فعال فرایند یادگیری را مختل کنند. نتایج شواهدی ارائه می‌دهند که وقتی الگوریتم‌ها اطلاعات را متناسب با رفتار کاربر تنظیم می‌کنند، این کاربر ممکن است درک جانبدارانه‌ای از موضوع داشته باشد و همزمان احساس اعتماد بیش از حد به دانش نادرست خود داشته باشد.

این مطالعه توسط گیون باهگ از دپارتمان روانشناسی دانشگاه وندربیلت، به همراه ولادیمیر م. اسلوتسکی و براندون م. ترنر از دپارتمان روانشناسی دانشگاه ایالتی اوهایو انجام شد. پژوهش‌های علمی پیشین در مورد شخصی‌سازی غالباً بر این تمرکز داشته‌اند که چگونه این سیستم‌ها باورهای موجود، مانند ایدئولوژی‌های سیاسی یا نگرش‌های اجتماعی، را تقویت می‌کنند. این پدیده اغلب به عنوان «حباب فیلتر» شناخته می‌شود.

گروه پژوهشی تلاش کرد تعیین کند آیا این الگوریتم‌ها بر فرآیندهای شناختی پایه تأثیر می‌گذارند وقتی فرد سعی می‌کند دربارهٔ موضوعی کاملاً نو که پیش‌نگری نظری ندارند، یاد بگیرد. آنها بررسی کردند که آیا مکانیزم تطبیق محتوای هدفمند برای افزایش مصرف، ممکن است به‌طور ناخواسته دسترسی به محیط گسترده‌تر را محدود کند.

این محدودیت می‌تواند از شکل‌گیری نقشه ذهنی دقیق از واقعیت توسط کاربران جلوگیری کند. پژوهشگران قصد داشتند شبیه‌سازی کنند که یک فرد چگونه می‌تواند از طریق فید منتخب، دربارهٔ حوزه‌ای جدید مانند سینمای خارجی یا یک مفهوم علمی، یاد بگیرد.

برای آزمون فرضیهٔ خود، پژوهشگران ۳۴۳ شرکت‌کننده را از طریق یک پلتفرم آنلاین جذب کردند. پس از حذف داده‌های جلساتی که ناقص بودند یا معیارهای کیفیت خاصی را برآورده نمی‌کردند، تحلیل نهایی شامل ۲۰۰ شرکت‌کننده شد.

پژوهشگران وظیفه‌ای طراحی کردند که شامل دسته‌های کاملاً تخیلی می‌شود تا اطمینان حاصل شود دانش پیشین نتایج را تحت تأثیر قرار نمی‌دهد. از شرکت‌کنندگان خواسته شد یاد بگیرند چگونه موجودات عجیبی شبیه بلور که «بیگانگان» نام دارند را دسته‌بندی کنند.

این موجودات دیجیتال شش ویژگی بصری متمایز داشتند که دستهٔ آن‌ها را تعریف می‌کرد. ویژگی‌ها شامل موقعیت روی یک خط، شعاع یک دایره، روشنایی، جهت‌گیری، انحنا و بسامد فضایی بودند. هدف شرکت‌کنندگان این بود که ساختار این دسته‌های بیگانگان را با مشاهدهٔ نمونه‌های مختلف بیاموزند.

این آزمایش شامل مرحلهٔ یادگیری و سپس مرحلهٔ آزمون بود. در مرحلهٔ یادگیری، ویژگی‌های خاص بیگانگان ابتدا پشت جعبه‌های خاکستری مخفی می‌شدند. شرکت‌کنندگان باید بر روی جعبه‌ها کلیک می‌کردند تا ویژگی‌های مشخص آشکار شوند؛ فرآیندی که پژوهشگران «نمونه‌برداری اطلاعاتی» می‌نامیدند. این تنظیمات به تیم اجازه داد دقیقاً پیگیری کند که چه اطلاعاتی را شرکت‌کنندگان انتخاب کردند مشاهده کنند و چه مواردی را نادیده گرفتند.

پژوهشگران شرکت‌کنندگان را به گروه‌های مختلف تقسیم کردند تا اثرات خاص شخصی‌سازی الگوریتمی را بسنجند. یک گروه به‌عنوان کنترل عمل کرده و مجموعه‌ای تصادفی از موارد را می‌دیدند که تمام ویژگی‌ها برای بررسی در دسترس بود. گروه دیگری درگیر یادگیری فعال بود، که در آن آزادانه دسته‌هایی که می‌خواستند مطالعه کنند بدون مداخلهٔ الگوریتمی انتخاب می‌کردند.

گروه‌های آزمایشی با الگوریتمی شخصی‌سازی‌شده تعامل داشتند که بر پایهٔ سیستم‌های فیلتر مشارکتی استفاده‌شده توسط پلتفرم‌های به‌اشتراک‌گذاری ویدیو مانند یوتیوب مدل‌سازی شده بود. این الگوریتم پیگیری می‌کرد که کدام ویژگی‌ها توسط شرکت‌کننده در طول آزمایش‌ها کلیک می‌شود.

پس از آن موارد بعدی را پیشنهاد می‌داد که ادامهٔ همان الگوی کلیک را برای کاربر آسان می‌ساخت. در نتیجه، سیستم یک حلقهٔ بازخوردی ایجاد کرد که موارد مشابه آنچه کاربر پیش‌تر با آن تعامل داشته است را نشان می‌داد.

این تنظیمات شبیه‌سازی می‌کرد که چگونه پلتفرم‌های آنلاین، تعامل محتوا را بر تنوع اطلاعاتی ترجیح می‌دهند تا حداکثر درآمد را به‌دست آورند. الگوریتم طوری آموزش داده شد تا پیش‌بینی کند کدام موارد بیشترین کلیک‌ها را از سوی کاربر به‌دنبال خواهند داشت. سپس فید کاربر را با آن موارد با تعامل بالا پر می‌کرد.

تحلیل داده‌ها تفاوت‌های معناداری را در نحوهٔ جمع‌آوری اطلاعات توسط گروه‌های مختلف نشان داد. شرکت‌کنندگان در شرایط شخصی‌سازی‌شده به‌طور قابل توجهی ویژگی‌های کمتری را نمونه‌برداری کردند نسبت به گروه‌های کنترل یا یادگیری فعال.

همزمان با پیشرفت مرحلهٔ یادگیری، این شرکت‌کنندگان تمرکز خود را حتی بیشتر محدود کردند. داده‌ها نشان می‌دهند که آنها تمایل داشتند ابعاد بیگانگانی را که الگوریتم به آنها اولویت نداد، نادیده بگیرند.

تحلیل تنوع نمونه‌برداری با استفاده از معیاری به نام آنتروپی شانون انجام شد. این معیار نشان داد که محیط شخصی‌سازی‌شده به‌طور مؤثری کاربران را به‌سوی توجه به یک بخش محدود از اطلاعات موجود هدایت می‌کند. الگوریتم به‌طور موفقیت‌آمیزی تنوع دسته‌های ارائه‌شده به کاربران را محدود کرد.

پس از مرحلهٔ یادگیری، پژوهشگران یک وظیفهٔ دسته‌بندی انجام دادند تا آنچه شرکت‌کنندگان یاد گرفته‌اند را ارزیابی کنند. آنها نمونه‌های جدیدی از بیگانگان را به شرکت‌کنندگان نشان دادند و از آنها خواستند که آنها را در گروه‌های صحیح قرار دهند.

پژوهشگران دریافتند افرادی که از طریق الگوریتم شخصی‌سازی‌شده یاد می‌گرفتند، خطاهای بیشتری نسبت به گروه کنترل مرتکب می‌شدند. بازنمایی داخلی آنها از دسته‌های بیگانگان تحریف شده بود.

الگوریتم مانع از مشاهدهٔ تنوع کامل جمعیت بیگانگان شد. این امر منجر به تعمیم‌های نادرست در مورد نحوهٔ ارتباط ویژگی‌های مختلف با یکدیگر شد. شرکت‌کنندگان به‌طور مؤثری نسخه‌ای تحریف‌شده از واقعیتی که در آزمایش ارائه شده بود، یاد گرفتند.

علاوه بر دقت، این مطالعه اعتماد به‌نفس شرکت‌کنندگان در تصمیمات خود را با استفاده از مقیاس ارزیابی از صفر تا ده اندازه‌گیری کرد. تحلیل نشان داد که شرکت‌کنندگان در گروه‌های شخصی‌سازی‌شده به‌طور مداوم سطح اطمینان بالایی را گزارش می‌دادند حتی زمانی که پاسخ‌هایشان اشتباه بود. این اثر به‌ویژه هنگام مواجهه با مواردی از دسته‌هایی که به‌ندرت یا هرگز در طول مرحلهٔ یادگیری ندیده بودند، مشهود بود.

به‌جای این‌که عدم دانشی که در مورد این موارد ناآشنا داشته‌اند را تشخیص دهند، شرکت‌کنندگان تجربهٔ محدود خود را به‌نادرست اعمال کردند. نتایج نشان می‌دهد که زمانی که یک مورد آزمون از دسته‌ای که مشاهده نشده بود می‌آمد، شرکت‌کنندگان عدم اطمینان را گزارش نکردند. آنها مطمئن بودند که دانش جانبدارانهٔ خود در این موقعیت‌های جدید نیز صادق است.

این نشان‌دهندهٔ جدایی بین صلاحیت واقعی و صلاحیت ادراک‌شده است که ناشی از محیط یادگیری فیلترشده است. شرکت‌کنندگان از این که الگوریتم بخش‌های قابل توجهی از چشم‌انداز اطلاعاتی را از آنها پنهان کرده بود، آگاه نبودند. آنها فرض می‌کردند نمونهٔ محدود مشاهده‌شده نمایانگر کل است.

نویسندگان اشاره می‌کنند که این مطالعه از یک وظیفهٔ بسیار کنترل‌شده و مصنوعی برای جداسازی اثرات شناختی الگوریتم‌ها استفاده کرده است. تعاملات واقعی با شخصی‌سازی اغلب شامل محتوای معنایی پیچیده و ترجیحات احساسی می‌شود که در این آزمایش حضور نداشتند. ماهیت مصنوعی تحریکات یک انتخاب طراحی ضروری بود تا تأثیر باورهای پیشین را حذف کند.

پژوهش‌های آینده می‌توانند بررسی کنند که این نتایج چگونه به محیط‌های طبیعی‌تری مانند مصرف اخبار یا ابزارهای آموزشی منتقل می‌شوند. پژوهشگران همچنین پیشنهاد می‌کنند که بررسی شود چگونه انواع مختلف اهداف کاربری می‌توانند اثرات منفی شخصی‌سازی را کاهش دهند. برای مثال، الگوریتمی که به‌جای تعامل، تنوع را حداکثر کند، ممکن است نتایج شناختی متفاوتی به‌دست آورد.

این نتایج شواهدی فراهم می‌کنند که ساختار سیستم‌های تحویل اطلاعات نقش مهمی در شکل‌گیری شناخت انسانی دارد. با بهینه‌سازی برای تعامل، الگوریتم‌های فعلی ممکن است به‌طور ناخواسته دقت دانش کاربران را قربانی کنند. این تعادل نشان می‌دهد که پلتفرم‌های آنلاین نه تنها می‌توانند آنچه افراد می‌بینند، بلکه می‌توانند نحوهٔ استدلال آنها دربارهٔ جهان را نیز شکل دهند.

مطالعه با عنوان «شخصی‌سازی الگوریتمی اطلاعات می‌تواند منجر به تعمیم نادرست و اعتماد بیش از حد شود» توسط گیون باهگ، ولادیمیر م. اسلوتسکی و براندون م. ترنر نگاشته شده است.