توییتر به‌روزرسانی یکپارچگی را در یادداشت‌های انجمن برای مقابله با انتشار ویروسی تصاویر جعلی راه‌اندازی کرد.



مقاله توسط سایت محتوا مارکتینگ

پس از چند مورد معروف از انتشار تصاویر نادرست در وب، 30 می گذشته، توییتر به روز رسانی جدیدی را در Community Notes راه اندازی کرد، برنامه آنها برای تحریک کاربران به همکاری از طریق یادداشت ها در توییت ها، اضافه کردن اطلاعات یکپارچگی در پست های به اشتراک گذاشته شده و آگاه نگه داشتن افراد به خوبی است.

پیش از این، بیایید نگاهی گذرا به آنچه در محیط هوش مصنوعی می‌گذرد داشته باشیم که باعث نگرانی جامعه فناوری شده است.

تصاویر جعلی در شبکه های اجتماعی منتشر می شود

تصاویر تولید شده با هوش مصنوعی هر روز آزادانه در وب پخش می شوند. گاهی اوقات به عنوان شوخی های بی گناه بین افرادی که با برنامه های هوش مصنوعی تصاویری ایجاد می کنند و سپس آنها را در حساب های رسانه های اجتماعی خود به اشتراک می گذارند.

از یک طرف، آنها می توانند سرگرمی در وب ایجاد کنند، از طرف دیگر، می توانند از آنها برای شر استفاده کنند و باعث وحشت و شرایط ناامن شوند.

اخیراً عکسی از یک “انفجار” در نزدیکی پنتاگون به شدت در فضای مجازی منتشر شد، از جمله برای بسیاری از حساب های تایید شده. مطابق با CNN، توییتر تحت مالکیت ایلان ماسک، به هر کسی اجازه می‌دهد در ازای پرداخت ماهانه، یک حساب تایید شده دریافت کند. در نتیجه، راستی‌آزمایی توییتر دیگر نشان‌دهنده‌ای نیست که یک حساب نشان‌دهنده کسی است که ادعا می‌کند نماینده آن است.» و همچنین حتی سازمان بزرگ تلویزیون هند، جمهوری تی وی، انفجار ادعایی را با استفاده از آن تصویر جعلی گزارش کرد. علاوه بر این، گزارش های خبرگزاری روسی RT پس از تکذیب این اطلاعات پس گرفته شد.

به گفته پاپ فرانسیس مجله نیویورک تایمز “ستاره عکس های تولید شده توسط هوش مصنوعی” است. عکسی که فرانسیس ظاهراً یک ژاکت سفید پفی به سبک مد فرانسوی پوشیده بود، نسبت به سایر عکس‌های معروف تولید شده توسط هوش مصنوعی، بازدید، لایک و اشتراک‌گذاری بیشتری به دست آورد.

دونالد ترامپ همچنین یک هدف اخبار جعلی با عکس های تولید شده توسط هوش مصنوعی بود که تلاش ادعایی وی برای فرار را نشان می داد و تصاویر دیگری از “گرفتن او” توسط پلیس آمریکا در شهر نیویورک، در زمانی که او در واقع به عنوان شاهد چندین اقدام جنایی مورد بازجویی قرار گرفت. .

غول‌های فناوری و هوش مصنوعی نگران هستند و پیش‌بینی‌های «آخرالزمانی» انجام می‌دهند

در همین حال، نمایندگان مشهور در هوش مصنوعی به خطرات هوش مصنوعی واکنش نشان می دهند. اینکه برخی اقدامات با هدف هشدار دادن به جهان نسبت به خطرات آن اتفاق افتاده است تازگی ندارد. بیایید چند نمونه اخیر را ببینیم:

در پروژه های بزرگ هوش مصنوعی مکث کنید

نامه ای سرگشاده که توسط چندین نام در جامعه فناوری از جمله نمایندگان غول هایی مانند خود ایلان ماسک امضا شده است. در این نامه سرگشاده درخواست وقفه 6 ماهه در تحقیق و توسعه هوش مصنوعی شده است.

این نامه باعث اختلاف نظر کارشناسان در سراسر جهان شد. در حالی که برخی از مکث به دلیل خطرات قریب الوقوع مانند اطلاعات نادرست حمایت می کنند، برخی دیگر هیچ فایده ای برای استراحت ندارند زیرا معتقدند هوش مصنوعی هنوز خودکفا نیست.

هشدارهای هوش مصنوعی-پدرخوانده

ماه گذشته، جفری هینتون، پدرخوانده هوش مصنوعی، از گوگل استعفا داد تا بتواند به جهان در مورد خطراتی که ممکن است بشریت در معرض آن قرار دارد هشدار دهد. هینتون معتقد است که ماشین‌ها ممکن است به زودی باهوش‌تر از انسان‌ها شوند و در مورد چت‌ربات‌های هوش مصنوعی در دست‌هایی که او آن‌ها را «بازیگران بد» نامید، هشدار داد.

بیانیه 22 کلمه ای

جدیدترین هشدار پرمخاطب در مورد خطر هوش مصنوعی، که امضاکنندگان آن عبارتند از دمیس حسابیس، مدیر عامل گوگل دیپ مایند و سام آلتمن، مدیر عامل OpenAI و همچنین دو نفر از برندگان جایزه تورینگ 2018، یوشوا بنجیو، و قبلاً از کارمند سابق گوگل، جفری هینتون نام برده شده است.

این به معنای واقعی کلمه 22 کلمه است و می گوید کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.

مطابق با آستانه هم طرفداران خطر هوش مصنوعی و هم شکاکان موافقند که، حتی بدون پیشرفت در قابلیت‌هایشان، سیستم‌های هوش مصنوعی در حال حاضر تعدادی از تهدیدات را ارائه می‌کنند – از استفاده از آن‌ها که امکان نظارت انبوه را فراهم می‌کند، تا تقویت الگوریتم‌های «پلیس پیش‌بینی» معیوب، و تسهیل ساخت از اطلاعات نادرست و اطلاعات نادرست.»

چگونه بررسی حقایق توییتر می تواند در مبارزه با اطلاعات نادرست مفید باشد

رسانه اجتماعی ایلان ماسک معتقد است که مردم باید آنچه را که ممکن است در توییتر نمایش داده شود انتخاب کنند و این شرکت منابعی را توسعه داده است که بر کمک کاربران خود برای تغذیه پایگاه داده آنها در مورد اطلاعات نادرست احتمالی حساب می کند.

یادداشت های انجمن منبعی است که در زیر یک توییت موجود است، که در آن کاربران ممکن است زمینه مفید مرتبط با پست های به اشتراک گذاشته شده را اضافه کنند که اطلاعات گمراه کننده احتمالی را نشان می دهد. سپس، همکاران ممکن است به یادداشت امتیاز دهند و تنها در صورتی که مفید تلقی شود، در توییت باقی خواهد ماند.

این به تنهایی برای مسدود کردن تصاویر جعلی ویروسی کافی نیست. بنابراین، اکنون با «بررسی واقعیت» امکان افزودن یادداشت‌ها به طور مستقیم به رسانه‌ها وجود خواهد داشت که به جلوگیری از انتشار آنها کمک می‌کند. هنگامی که این مورد در یادداشت قرار گرفت، شناسایی تصاویر تولید شده توسط هوش مصنوعی همانطور که قبلا در پلتفرم دیده شده بود آسان تر خواهد بود.

با این وجود، به دلیل تأخیر در فرآیند افزودن و رتبه‌بندی یک یادداشت، این ممکن است چابک‌ترین راه حل برای جلوگیری از اشتراک‌گذاری گسترده‌ای نباشد که معمولاً در چند ثانیه اتفاق می‌افتد، به این معنی که ما هنوز راه زیادی برای رسیدن به دنیای امن‌تر داریم. با هوش مصنوعی به عنوان شریک بزرگ بشریت و نه به عنوان یک دشمن.

آیا می خواهید همچنان با بهترین شیوه های بازاریابی به روز شوید؟ اکیداً به شما پیشنهاد می کنم مشترک شدن در The Beat، خبرنامه تعاملی محتوا مارکتینگ. ما تمام گرایش های مهم در چشم انداز بازاریابی دیجیتال را پوشش می دهیم. آنجا میبینمت!





محتوا مارکتینگ

توسط psychen

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *