روز پنجشنبه، گروهی متنوع از افراد و سازمانها از سپر مسئولیت Big Tech در یک پرونده حیاتی دادگاه عالی در رابطه با الگوریتمهای YouTube دفاع کردند. این گروه شامل مشاغل، کاربران اینترنت، دانشگاهیان و کارشناسان حقوق بشر بود و برخی معتقد بودند که حذف حمایت های قانونی فدرال برای موتورهای توصیه مبتنی بر هوش مصنوعی تأثیر زیادی بر اینترنت باز خواهد داشت.
در میان کسانی که به دادگاه رسیدگی کردند، شرکتهای فناوری بزرگ مانند متا، توییتر و مایکروسافت و همچنین برخی از سرسختترین منتقدان Big Tech از جمله Yelp و Electronic Frontier Foundation بودند. علاوه بر این، Reddit و گروهی از مدیران داوطلب Reddit نیز در این پرونده شرکت کردند.
چی شد. این مناقشه با پرونده دادگاه عالی Gonzalez v. Google شروع شد و حول این سوال متمرکز شد که آیا Google میتواند مسئول توصیه محتوای طرفدار داعش به کاربران از طریق الگوریتم YouTube خود باشد.
گوگل ادعا کرده است که بخش 230 قانون نجابت ارتباطات از آنها در برابر چنین دعوی قضایی محافظت می کند. با این حال، شاکیان این پرونده، اعضای خانواده قربانی کشته شده در حمله داعش در پاریس در سال 2015، استدلال می کنند که الگوریتم توصیه یوتیوب می تواند تحت قانون ضد تروریسم ایالات متحده مسئول شناخته شود.
در پرونده آمده بود:
«کل پلتفرم Reddit حول محور کاربرانی ساخته شده است که با انجام اقداماتی مانند رأی مثبت و پین کردن محتوا، محتوا را به نفع دیگران «توصیه» می کنند. در این مورد نباید عواقب ادعای دادخواهان اشتباه شود: نظریه آنها به طور چشمگیری پتانسیل کاربران اینترنت را برای شکایت به دلیل تعاملات آنلاین آنها افزایش می دهد.
Yelp وارد می شود. Yelp، یک شرکت با سابقه درگیری با گوگل، استدلال کرده است که مدل کسب و کار آن بر ارائه بررسی های دقیق و غیر متقلبانه برای کاربران خود متکی است. آنها همچنین بیان کردهاند که حکمی که الگوریتمهای توصیه را مسئول میداند، میتواند به شدت بر عملیات Yelp تأثیر بگذارد و آنها را مجبور به توقف مرتبسازی از طریق بررسیها، از جمله موارد جعلی یا دستکاریکننده کند.
Yelp نوشت؛
«اگر Yelp نتواند بررسیها را بدون مسئولیتپذیری تحلیل و توصیه کند، هزینههای ارسال بررسیهای جعلی از بین میرود. اگر Yelp مجبور بود هر بررسی ارسالی را نمایش دهد، صاحبان مشاغل می توانستند صدها نظر مثبت را برای کسب و کار خود با کمی تلاش یا خطر جریمه ارسال کنند.
دخالت متا متا، مادر فیسبوک، در ارسال قانونی خود اعلام کرده است که اگر دیوان عالی تفسیر بخش 230 را برای محافظت از توانایی پلتفرمها برای حذف محتوا و نه توصیه محتوا تغییر دهد، سؤالات مهمی در مورد معنای توصیه چیزی آنلاین ایجاد میکند.
نمایندگان متا اعلام کردند:
«اگر صرفاً نمایش محتوای شخص ثالث در فید کاربر واجد شرایط «توصیه کردن» باشد، بسیاری از سرویسها تقریباً در قبال تمام محتوای شخص ثالثی که میزبانی میکنند با مسئولیت بالقوه مواجه خواهند شد، زیرا تقریباً تمام تصمیمگیریها درباره نحوه مرتبسازی، انتخاب، سازماندهی، و نمایش محتوای شخص ثالث را می توان به عنوان «توصیه» آن محتوا تفسیر کرد.»
مدافعان حقوق بشر مداخله می کنند. مرکز استرن برای تجارت و حقوق بشر دانشگاه نیویورک بیان کرده است که ایجاد قانونی که به طور خاص توصیه های الگوریتمی برای مسئولیت را هدف قرار دهد بسیار دشوار است و ممکن است منجر به سرکوب یا از دست دادن مقدار قابل توجهی از گفتار ارزشمند، به ویژه گفتار شود. از گروه های به حاشیه رانده شده یا اقلیت.
چرا ما اهمیت می دهیم. نتیجه این پرونده میتواند پیامدهای مهمی بر نحوه عملکرد شرکتهای فناوری داشته باشد. اگر دادگاه حکم کند که شرکتها میتوانند در قبال محتوایی که الگوریتمهایشان توصیه میکنند مسئول شناخته شوند، میتواند نحوه طراحی و اجرای سیستمهای توصیهشان را تغییر دهد.
این می تواند منجر به مدیریت دقیق تر محتوا و کاهش مقدار محتوایی که به کاربران توصیه می شود، شود. علاوه بر این، می تواند منجر به افزایش هزینه های قانونی و عدم اطمینان برای این شرکت ها شود.
جدید در زمین موتورهای جستجو