
یک مطالعه جدید که در مجله روانشناسی آزمایشی: عمومی منتشر شده است، نشان میدهد که الگوریتمهای شخصیسازی به کار رفته در پلتفرمهای محتوای آنلاین میتوانند بهطور فعال فرایند یادگیری را مختل کنند. نتایج شواهدی ارائه میدهند که وقتی الگوریتمها اطلاعات را متناسب با رفتار کاربر تنظیم میکنند، این کاربر ممکن است درک جانبدارانهای از موضوع داشته باشد و همزمان احساس اعتماد بیش از حد به دانش نادرست خود داشته باشد.
این مطالعه توسط گیون باهگ از دپارتمان روانشناسی دانشگاه وندربیلت، به همراه ولادیمیر م. اسلوتسکی و براندون م. ترنر از دپارتمان روانشناسی دانشگاه ایالتی اوهایو انجام شد. پژوهشهای علمی پیشین در مورد شخصیسازی غالباً بر این تمرکز داشتهاند که چگونه این سیستمها باورهای موجود، مانند ایدئولوژیهای سیاسی یا نگرشهای اجتماعی، را تقویت میکنند. این پدیده اغلب به عنوان «حباب فیلتر» شناخته میشود.
گروه پژوهشی تلاش کرد تعیین کند آیا این الگوریتمها بر فرآیندهای شناختی پایه تأثیر میگذارند وقتی فرد سعی میکند دربارهٔ موضوعی کاملاً نو که پیشنگری نظری ندارند، یاد بگیرد. آنها بررسی کردند که آیا مکانیزم تطبیق محتوای هدفمند برای افزایش مصرف، ممکن است بهطور ناخواسته دسترسی به محیط گستردهتر را محدود کند.
این محدودیت میتواند از شکلگیری نقشه ذهنی دقیق از واقعیت توسط کاربران جلوگیری کند. پژوهشگران قصد داشتند شبیهسازی کنند که یک فرد چگونه میتواند از طریق فید منتخب، دربارهٔ حوزهای جدید مانند سینمای خارجی یا یک مفهوم علمی، یاد بگیرد.
برای آزمون فرضیهٔ خود، پژوهشگران ۳۴۳ شرکتکننده را از طریق یک پلتفرم آنلاین جذب کردند. پس از حذف دادههای جلساتی که ناقص بودند یا معیارهای کیفیت خاصی را برآورده نمیکردند، تحلیل نهایی شامل ۲۰۰ شرکتکننده شد.
پژوهشگران وظیفهای طراحی کردند که شامل دستههای کاملاً تخیلی میشود تا اطمینان حاصل شود دانش پیشین نتایج را تحت تأثیر قرار نمیدهد. از شرکتکنندگان خواسته شد یاد بگیرند چگونه موجودات عجیبی شبیه بلور که «بیگانگان» نام دارند را دستهبندی کنند.
این موجودات دیجیتال شش ویژگی بصری متمایز داشتند که دستهٔ آنها را تعریف میکرد. ویژگیها شامل موقعیت روی یک خط، شعاع یک دایره، روشنایی، جهتگیری، انحنا و بسامد فضایی بودند. هدف شرکتکنندگان این بود که ساختار این دستههای بیگانگان را با مشاهدهٔ نمونههای مختلف بیاموزند.
این آزمایش شامل مرحلهٔ یادگیری و سپس مرحلهٔ آزمون بود. در مرحلهٔ یادگیری، ویژگیهای خاص بیگانگان ابتدا پشت جعبههای خاکستری مخفی میشدند. شرکتکنندگان باید بر روی جعبهها کلیک میکردند تا ویژگیهای مشخص آشکار شوند؛ فرآیندی که پژوهشگران «نمونهبرداری اطلاعاتی» مینامیدند. این تنظیمات به تیم اجازه داد دقیقاً پیگیری کند که چه اطلاعاتی را شرکتکنندگان انتخاب کردند مشاهده کنند و چه مواردی را نادیده گرفتند.
پژوهشگران شرکتکنندگان را به گروههای مختلف تقسیم کردند تا اثرات خاص شخصیسازی الگوریتمی را بسنجند. یک گروه بهعنوان کنترل عمل کرده و مجموعهای تصادفی از موارد را میدیدند که تمام ویژگیها برای بررسی در دسترس بود. گروه دیگری درگیر یادگیری فعال بود، که در آن آزادانه دستههایی که میخواستند مطالعه کنند بدون مداخلهٔ الگوریتمی انتخاب میکردند.
گروههای آزمایشی با الگوریتمی شخصیسازیشده تعامل داشتند که بر پایهٔ سیستمهای فیلتر مشارکتی استفادهشده توسط پلتفرمهای بهاشتراکگذاری ویدیو مانند یوتیوب مدلسازی شده بود. این الگوریتم پیگیری میکرد که کدام ویژگیها توسط شرکتکننده در طول آزمایشها کلیک میشود.
پس از آن موارد بعدی را پیشنهاد میداد که ادامهٔ همان الگوی کلیک را برای کاربر آسان میساخت. در نتیجه، سیستم یک حلقهٔ بازخوردی ایجاد کرد که موارد مشابه آنچه کاربر پیشتر با آن تعامل داشته است را نشان میداد.
این تنظیمات شبیهسازی میکرد که چگونه پلتفرمهای آنلاین، تعامل محتوا را بر تنوع اطلاعاتی ترجیح میدهند تا حداکثر درآمد را بهدست آورند. الگوریتم طوری آموزش داده شد تا پیشبینی کند کدام موارد بیشترین کلیکها را از سوی کاربر بهدنبال خواهند داشت. سپس فید کاربر را با آن موارد با تعامل بالا پر میکرد.
تحلیل دادهها تفاوتهای معناداری را در نحوهٔ جمعآوری اطلاعات توسط گروههای مختلف نشان داد. شرکتکنندگان در شرایط شخصیسازیشده بهطور قابل توجهی ویژگیهای کمتری را نمونهبرداری کردند نسبت به گروههای کنترل یا یادگیری فعال.
همزمان با پیشرفت مرحلهٔ یادگیری، این شرکتکنندگان تمرکز خود را حتی بیشتر محدود کردند. دادهها نشان میدهند که آنها تمایل داشتند ابعاد بیگانگانی را که الگوریتم به آنها اولویت نداد، نادیده بگیرند.
تحلیل تنوع نمونهبرداری با استفاده از معیاری به نام آنتروپی شانون انجام شد. این معیار نشان داد که محیط شخصیسازیشده بهطور مؤثری کاربران را بهسوی توجه به یک بخش محدود از اطلاعات موجود هدایت میکند. الگوریتم بهطور موفقیتآمیزی تنوع دستههای ارائهشده به کاربران را محدود کرد.
پس از مرحلهٔ یادگیری، پژوهشگران یک وظیفهٔ دستهبندی انجام دادند تا آنچه شرکتکنندگان یاد گرفتهاند را ارزیابی کنند. آنها نمونههای جدیدی از بیگانگان را به شرکتکنندگان نشان دادند و از آنها خواستند که آنها را در گروههای صحیح قرار دهند.
پژوهشگران دریافتند افرادی که از طریق الگوریتم شخصیسازیشده یاد میگرفتند، خطاهای بیشتری نسبت به گروه کنترل مرتکب میشدند. بازنمایی داخلی آنها از دستههای بیگانگان تحریف شده بود.
الگوریتم مانع از مشاهدهٔ تنوع کامل جمعیت بیگانگان شد. این امر منجر به تعمیمهای نادرست در مورد نحوهٔ ارتباط ویژگیهای مختلف با یکدیگر شد. شرکتکنندگان بهطور مؤثری نسخهای تحریفشده از واقعیتی که در آزمایش ارائه شده بود، یاد گرفتند.
علاوه بر دقت، این مطالعه اعتماد بهنفس شرکتکنندگان در تصمیمات خود را با استفاده از مقیاس ارزیابی از صفر تا ده اندازهگیری کرد. تحلیل نشان داد که شرکتکنندگان در گروههای شخصیسازیشده بهطور مداوم سطح اطمینان بالایی را گزارش میدادند حتی زمانی که پاسخهایشان اشتباه بود. این اثر بهویژه هنگام مواجهه با مواردی از دستههایی که بهندرت یا هرگز در طول مرحلهٔ یادگیری ندیده بودند، مشهود بود.
بهجای اینکه عدم دانشی که در مورد این موارد ناآشنا داشتهاند را تشخیص دهند، شرکتکنندگان تجربهٔ محدود خود را بهنادرست اعمال کردند. نتایج نشان میدهد که زمانی که یک مورد آزمون از دستهای که مشاهده نشده بود میآمد، شرکتکنندگان عدم اطمینان را گزارش نکردند. آنها مطمئن بودند که دانش جانبدارانهٔ خود در این موقعیتهای جدید نیز صادق است.
این نشاندهندهٔ جدایی بین صلاحیت واقعی و صلاحیت ادراکشده است که ناشی از محیط یادگیری فیلترشده است. شرکتکنندگان از این که الگوریتم بخشهای قابل توجهی از چشمانداز اطلاعاتی را از آنها پنهان کرده بود، آگاه نبودند. آنها فرض میکردند نمونهٔ محدود مشاهدهشده نمایانگر کل است.
نویسندگان اشاره میکنند که این مطالعه از یک وظیفهٔ بسیار کنترلشده و مصنوعی برای جداسازی اثرات شناختی الگوریتمها استفاده کرده است. تعاملات واقعی با شخصیسازی اغلب شامل محتوای معنایی پیچیده و ترجیحات احساسی میشود که در این آزمایش حضور نداشتند. ماهیت مصنوعی تحریکات یک انتخاب طراحی ضروری بود تا تأثیر باورهای پیشین را حذف کند.
پژوهشهای آینده میتوانند بررسی کنند که این نتایج چگونه به محیطهای طبیعیتری مانند مصرف اخبار یا ابزارهای آموزشی منتقل میشوند. پژوهشگران همچنین پیشنهاد میکنند که بررسی شود چگونه انواع مختلف اهداف کاربری میتوانند اثرات منفی شخصیسازی را کاهش دهند. برای مثال، الگوریتمی که بهجای تعامل، تنوع را حداکثر کند، ممکن است نتایج شناختی متفاوتی بهدست آورد.
این نتایج شواهدی فراهم میکنند که ساختار سیستمهای تحویل اطلاعات نقش مهمی در شکلگیری شناخت انسانی دارد. با بهینهسازی برای تعامل، الگوریتمهای فعلی ممکن است بهطور ناخواسته دقت دانش کاربران را قربانی کنند. این تعادل نشان میدهد که پلتفرمهای آنلاین نه تنها میتوانند آنچه افراد میبینند، بلکه میتوانند نحوهٔ استدلال آنها دربارهٔ جهان را نیز شکل دهند.
مطالعه با عنوان «شخصیسازی الگوریتمی اطلاعات میتواند منجر به تعمیم نادرست و اعتماد بیش از حد شود» توسط گیون باهگ، ولادیمیر م. اسلوتسکی و براندون م. ترنر نگاشته شده است.