مقاله توسط سایت محتوا مارکتینگ
پس از چند مورد معروف از انتشار تصاویر نادرست در وب، 30 می گذشته، توییتر به روز رسانی جدیدی را در Community Notes راه اندازی کرد، برنامه آنها برای تحریک کاربران به همکاری از طریق یادداشت ها در توییت ها، اضافه کردن اطلاعات یکپارچگی در پست های به اشتراک گذاشته شده و آگاه نگه داشتن افراد به خوبی است.
پیش از این، بیایید نگاهی گذرا به آنچه در محیط هوش مصنوعی میگذرد داشته باشیم که باعث نگرانی جامعه فناوری شده است.
تصاویر جعلی در شبکه های اجتماعی منتشر می شود
تصاویر تولید شده با هوش مصنوعی هر روز آزادانه در وب پخش می شوند. گاهی اوقات به عنوان شوخی های بی گناه بین افرادی که با برنامه های هوش مصنوعی تصاویری ایجاد می کنند و سپس آنها را در حساب های رسانه های اجتماعی خود به اشتراک می گذارند.
از یک طرف، آنها می توانند سرگرمی در وب ایجاد کنند، از طرف دیگر، می توانند از آنها برای شر استفاده کنند و باعث وحشت و شرایط ناامن شوند.
اخیراً عکسی از یک “انفجار” در نزدیکی پنتاگون به شدت در فضای مجازی منتشر شد، از جمله برای بسیاری از حساب های تایید شده. مطابق با CNN، توییتر تحت مالکیت ایلان ماسک، به هر کسی اجازه میدهد در ازای پرداخت ماهانه، یک حساب تایید شده دریافت کند. در نتیجه، راستیآزمایی توییتر دیگر نشاندهندهای نیست که یک حساب نشاندهنده کسی است که ادعا میکند نماینده آن است.» و همچنین حتی سازمان بزرگ تلویزیون هند، جمهوری تی وی، انفجار ادعایی را با استفاده از آن تصویر جعلی گزارش کرد. علاوه بر این، گزارش های خبرگزاری روسی RT پس از تکذیب این اطلاعات پس گرفته شد.
به گفته پاپ فرانسیس مجله نیویورک تایمز “ستاره عکس های تولید شده توسط هوش مصنوعی” است. عکسی که فرانسیس ظاهراً یک ژاکت سفید پفی به سبک مد فرانسوی پوشیده بود، نسبت به سایر عکسهای معروف تولید شده توسط هوش مصنوعی، بازدید، لایک و اشتراکگذاری بیشتری به دست آورد.
دونالد ترامپ همچنین یک هدف اخبار جعلی با عکس های تولید شده توسط هوش مصنوعی بود که تلاش ادعایی وی برای فرار را نشان می داد و تصاویر دیگری از “گرفتن او” توسط پلیس آمریکا در شهر نیویورک، در زمانی که او در واقع به عنوان شاهد چندین اقدام جنایی مورد بازجویی قرار گرفت. .
غولهای فناوری و هوش مصنوعی نگران هستند و پیشبینیهای «آخرالزمانی» انجام میدهند
در همین حال، نمایندگان مشهور در هوش مصنوعی به خطرات هوش مصنوعی واکنش نشان می دهند. اینکه برخی اقدامات با هدف هشدار دادن به جهان نسبت به خطرات آن اتفاق افتاده است تازگی ندارد. بیایید چند نمونه اخیر را ببینیم:
در پروژه های بزرگ هوش مصنوعی مکث کنید
نامه ای سرگشاده که توسط چندین نام در جامعه فناوری از جمله نمایندگان غول هایی مانند خود ایلان ماسک امضا شده است. در این نامه سرگشاده درخواست وقفه 6 ماهه در تحقیق و توسعه هوش مصنوعی شده است.
این نامه باعث اختلاف نظر کارشناسان در سراسر جهان شد. در حالی که برخی از مکث به دلیل خطرات قریب الوقوع مانند اطلاعات نادرست حمایت می کنند، برخی دیگر هیچ فایده ای برای استراحت ندارند زیرا معتقدند هوش مصنوعی هنوز خودکفا نیست.
هشدارهای هوش مصنوعی-پدرخوانده
ماه گذشته، جفری هینتون، پدرخوانده هوش مصنوعی، از گوگل استعفا داد تا بتواند به جهان در مورد خطراتی که ممکن است بشریت در معرض آن قرار دارد هشدار دهد. هینتون معتقد است که ماشینها ممکن است به زودی باهوشتر از انسانها شوند و در مورد چترباتهای هوش مصنوعی در دستهایی که او آنها را «بازیگران بد» نامید، هشدار داد.
بیانیه 22 کلمه ای
جدیدترین هشدار پرمخاطب در مورد خطر هوش مصنوعی، که امضاکنندگان آن عبارتند از دمیس حسابیس، مدیر عامل گوگل دیپ مایند و سام آلتمن، مدیر عامل OpenAI و همچنین دو نفر از برندگان جایزه تورینگ 2018، یوشوا بنجیو، و قبلاً از کارمند سابق گوگل، جفری هینتون نام برده شده است.
این به معنای واقعی کلمه 22 کلمه است و می گوید کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
مطابق با آستانه هم طرفداران خطر هوش مصنوعی و هم شکاکان موافقند که، حتی بدون پیشرفت در قابلیتهایشان، سیستمهای هوش مصنوعی در حال حاضر تعدادی از تهدیدات را ارائه میکنند – از استفاده از آنها که امکان نظارت انبوه را فراهم میکند، تا تقویت الگوریتمهای «پلیس پیشبینی» معیوب، و تسهیل ساخت از اطلاعات نادرست و اطلاعات نادرست.»
چگونه بررسی حقایق توییتر می تواند در مبارزه با اطلاعات نادرست مفید باشد
رسانه اجتماعی ایلان ماسک معتقد است که مردم باید آنچه را که ممکن است در توییتر نمایش داده شود انتخاب کنند و این شرکت منابعی را توسعه داده است که بر کمک کاربران خود برای تغذیه پایگاه داده آنها در مورد اطلاعات نادرست احتمالی حساب می کند.
یادداشت های انجمن منبعی است که در زیر یک توییت موجود است، که در آن کاربران ممکن است زمینه مفید مرتبط با پست های به اشتراک گذاشته شده را اضافه کنند که اطلاعات گمراه کننده احتمالی را نشان می دهد. سپس، همکاران ممکن است به یادداشت امتیاز دهند و تنها در صورتی که مفید تلقی شود، در توییت باقی خواهد ماند.
این به تنهایی برای مسدود کردن تصاویر جعلی ویروسی کافی نیست. بنابراین، اکنون با «بررسی واقعیت» امکان افزودن یادداشتها به طور مستقیم به رسانهها وجود خواهد داشت که به جلوگیری از انتشار آنها کمک میکند. هنگامی که این مورد در یادداشت قرار گرفت، شناسایی تصاویر تولید شده توسط هوش مصنوعی همانطور که قبلا در پلتفرم دیده شده بود آسان تر خواهد بود.
با این وجود، به دلیل تأخیر در فرآیند افزودن و رتبهبندی یک یادداشت، این ممکن است چابکترین راه حل برای جلوگیری از اشتراکگذاری گستردهای نباشد که معمولاً در چند ثانیه اتفاق میافتد، به این معنی که ما هنوز راه زیادی برای رسیدن به دنیای امنتر داریم. با هوش مصنوعی به عنوان شریک بزرگ بشریت و نه به عنوان یک دشمن.
آیا می خواهید همچنان با بهترین شیوه های بازاریابی به روز شوید؟ اکیداً به شما پیشنهاد می کنم مشترک شدن در The Beat، خبرنامه تعاملی محتوا مارکتینگ. ما تمام گرایش های مهم در چشم انداز بازاریابی دیجیتال را پوشش می دهیم. آنجا میبینمت!
