در TikTok ، همه چیز آنطور که به نظر می رسد نیست. با فیلم های رقص درگیر شوید و افراد بیشتری را که Renegade انجام می دهند مشاهده خواهید کرد. اگر به سگ TikTok بستید ، به شما توله سگ می دهد.

اما وسواس الگوریتمی TikTok با دادن مطالب بیشتری که فکر می کنید دوست دارید نتیجه ناخواسته ای داشته باشد: این توصیه شده است که به افراد توصیه کنید حساب های جدید را بر اساس ظاهر بدنی افرادی که قبلاً دنبال می کنند دنبال کنند.

این هفته Marc Faddoul ، یک محقق هوش مصنوعی در دانشکده اطلاعات UC Berkeley ، متوجه شد که TikTok به او توصیه می کند با عکس های پروفایل که مطابق با نژاد ، سن و یا مشخصات چهره با مواردی است که قبلاً دنبال کرده بود ، حساب های خود را ارائه دهد.

او یک حساب تازه ایجاد کرد تا تئوری خود را آزمایش کند و افرادی را که در صفحه برای تو» یافتند دنبال کرد. پس از گزارش یک زن سیاه پوست ، به توصیه هایی برای سه زن سیاه پوست منجر شد. این به طرز عجیبی خاص می شود - فدول دریافت که ضربه زدن به دنبال مردی آسیایی با موهای رنگ شده ، به او بیشتر مردان آسیایی با موهای رنگ شده می دهد و همین اتفاق برای مردانی که معلولیت قابل رویت دارند نیز اتفاق افتاد.

TikTok انکار می کند که از تصاویر نمایه به عنوان بخشی از الگوریتم خود استفاده می کند و می گوید که در آزمایش های خاص خود نتوانسته است همان نتایج را تکرار کند. اما برنامه از فیلترهای مشارکتی استفاده می کند - جایی که توصیه ها بر اساس آنچه سایر کاربران انجام داده اند ارائه می شود.

سخنگوی TikTok می گوید: "توصیه ما برای پیگیری حسابها بر اساس رفتار کاربر است." "کاربرانی که حساب A را دنبال می کنند ، حساب B را نیز دنبال می کنند ، بنابراین اگر A را دنبال کنید ، احتمالاً می خواهید B را دنبال کنید." و این پتانسیل را دارد که تعصب ناخودآگاه را به الگوریتم اضافه کنید.

فاضل می گوید: "این سیستم عامل بسیار ظاهر محور است و بنابراین فیلتر مشترک می تواند منجر به نتایج خاص ظاهری شود حتی اگر تصویر پروفایل توسط سیستم استفاده نشود." الگوریتم TikTok فکر خواهد کرد که یک تجربه شخصی را برای شما ایجاد می کند ، اما در واقع فقط ساخت یک حباب فیلتر است - یک محفظه اکو که در آن فقط افراد مشابهی را مشاهده می کنید که آگاهی کمی نسبت به دیگران دارند.

برای دیدن این تعبیه ، باید به کوکی های رسانه های اجتماعی رضایت دهید. تنظیمات برگزیده کوکی من را باز کنید.

این اولین بار نیست که الگوریتم TikTok به تعصب نژادی متهم شده است. در اکتبر 2019 کاربران رنگ TikTok خواستار نمایش بهتر در صفحه For You بودند ، جایی که کاربران برای توصیه ها و متناسب با محتوای جدید می روند. در ژانویه سال 2019 ، ویتنی فیلیپس ، استاد ارتباطات و بلاغت رسانه های آنلاین در دانشگاه Siracuse به مادربورد گفت که شیوه کار TikTok می تواند باعث شود کاربران بتوانند جامعه را که با آن مشخص می شود ، تکرار کنند.


مشخصات

آخرین جستجو ها