رهبران فناوری درخواست توقف در پروژه های بزرگ هوش مصنوعی می کنند.  اما آیا جهان گوش خواهد کرد؟



مقاله توسط سایت محتوا مارکتینگ

همانطور که هوش مصنوعی قدرتمندتر و فراگیرتر می شود، نگرانی ها در مورد تأثیر آن بر جامعه همچنان افزایش می یابد. در ماه‌های اخیر، شاهد پیشرفت‌های باورنکردنی مانند GPT-4، نسخه جدید مدل زبان ChatGPT از Open-AI بوده‌ایم، که می‌تواند بسیار سریع یاد بگیرد و با پاسخ‌های با کیفیت زیادی پاسخ دهد که می‌تواند از جهات مختلف مفید باشد. اما در عین حال، نگرانی های زیادی را در مورد آینده تمدن ما ایجاد کرد.

هفته گذشته، در “نامه ای سرگشاده” با امضای مدیرعامل تسلا، ایلان ماسک، استیو وزنیاک، بنیانگذار اپل، و همچنین توسط نمایندگان طیف وسیعی از زمینه‌ها مانند روباتیک، یادگیری ماشین و علوم کامپیوتر، خواستار توقف ۶ ماهه آزمایش‌های غول‌آمیز هوش مصنوعی شدند. گفتن آن نشان دهنده خطری برای بشریت است.

از آن زمان، من نظرات برخی از متخصصان را دنبال می‌کنم و از شما دعوت می‌کنم تا در بازتاب این سناریو با من همراه باشید.

نامه سرگشاده

را «مکث آزمایش‌های هوش مصنوعی غول‌پیکر: یک نامه سرگشاده»، که در حال حاضر تقریباً 6 هزار امضا دارد، به عنوان یک موضوع فوری، از آزمایشگاه های هوش مصنوعی می خواهد که برخی از پروژه ها را متوقف کنند. ما از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند.برجسته در هدر می گوید.

هشدار می دهد، “آزمایشگاه های هوش مصنوعی در یک مسابقه خارج از کنترل برای توسعه و استقرار ذهن های دیجیتالی قدرتمندتر هستند که هیچ کس – حتی سازندگان آنها – نمی توانند درک کنند، پیش بینی کنند یا به طور قابل اعتماد کنترل کنند.”

و همچنین آینده ای «آخرالزمانی» را پیش بینی می کند: «آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید تمام مشاغل، از جمله کارهای انجام‌دهنده را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟»

“وزن” واقعی این نامه چقدر است؟

در ابتدا، همدردی با علت آسان است، اما بیایید در تمام زمینه های جهانی درگیر تأمل کنیم.

علیرغم تایید این نامه توسط لیست بلندبالایی از مقامات برجسته فناوری، از جمله مهندسان گوگل و متا، این نامه جنجال های شدیدی را در مورد برخی از مشترکین نماینده که با رویه های آنها در مورد محدودیت های امنیتی مربوط به فناوری هایشان، مانند ایلان ماسک، مطابقت ندارد، ایجاد کرده است. طبق گزارشات، ماسک سال گذشته تیم “هوش مصنوعی اخلاقی” خود را اخراج کرد سیمی، آینده پژوهیو بسیاری از سایت های خبری دیگر در آن زمان.

شایان ذکر است که ماسک که یکی از بنیانگذاران Open-AI بود و شرکت را در سال 2018 ترک کرد، بارها در توییتر با انتقاد شدید از پیشرفت های ChatGPT به آنها حمله کرده است.

سم آلتمن، یکی از بنیانگذاران Open-AI، در گفتگو با پادکست لکس فریدمن، ادعاهایی مبنی بر اینکه نگرانی ها در مورد آزمایش های AGI مشروع هستند و اذعان به اینکه خطرات، مانند اطلاعات نادرست، واقعی هستند.

همچنین در مصاحبه با wsjآلتمن می‌گوید که این شرکت مدت‌هاست که نگران امنیت فناوری‌های خود بوده و بیش از 6 ماه را صرف آزمایش این ابزار قبل از انتشار آن کرده‌اند.

اثرات عملی آن چیست؟

اندرو نگ، بنیانگذار و مدیر عامل Landing AI، موسس DeepLearning.AI و شریک عمومی مدیر عامل AI Fund، در لینکدین می گوید درخواست برای توقف 6 ماهه پیشرفت هوش مصنوعی فراتر از GPT-4 یک ایده وحشتناک است. من برنامه های جدید بسیاری را در آموزش، مراقبت های بهداشتی، غذا و … می بینم که به بسیاری از افراد کمک می کند. بهبود GPT-4 کمک خواهد کرد. بیایید بین ارزش عظیمی که هوش مصنوعی ایجاد می کند، تعادل ایجاد کنیم. خطرات واقع بینانه.»

او همچنین گفت هیچ راه واقع بینانه ای برای اجرای مهلت قانونی و جلوگیری از افزایش LLM توسط همه تیم ها وجود ندارد، مگر اینکه دولت ها وارد عمل شوند. مکث کردن دولت‌ها از فناوری‌های نوظهور که آنها را درک نمی‌کنند، ضدرقابتی است، یک سابقه وحشتناک ایجاد می‌کند و یک سیاست نوآوری وحشتناک است.»

مانند Ng، بسیاری دیگر از متخصصان فناوری نیز با نکته اصلی نامه مخالف هستند و درخواست توقف آزمایش ها را دارند. به نظر آنها از این طریق می‌توانیم به پیشرفت‌های عظیم علم و اکتشافات بهداشتی آسیب بزنیم، مانند تشخیص سرطان سینههمانطور که ماه گذشته در نیویورک تایمز منتشر شد.

اخلاق و مقررات هوش مصنوعی: یک نیاز واقعی

در حالی که یک مسابقه واقعی بین غول‌ها برای قرار دادن راه‌حل‌های هوشمندانه LLM در بازار در جریان است، واقعیت این است که پیشرفت کمی در جهت مقررات و سایر اقدامات احتیاطی که باید «برای دیروز» انجام شود، صورت گرفته است. اگر به آن فکر کنیم، حتی لازم نیست برای تأیید فوریت، روی رویدادهای «آخرالزمانی» تمرکز کنیم، رویدادهای طولانی مدت، مانند موارد ذکر شده در نامه. مشکلات فعلی و سرنوشت ساز ناشی از «اطلاعات غلط» کافی است.

در اطراف این موضوع، اخیراً دیده‌ایم که چگونه هوش مصنوعی می‌تواند با مونتاژهای عالی از تصاویر، مانند تصویر ویروسی، «حقیقت» ایجاد کند. پاپ با کت پفی که در چند روز گذشته، در میان بسیاری دیگر از تولیدات ویدئویی «جعلی»، با استفاده از صداها و چهره‌های افراد مشهور، بر وب مسلط شده است.

از این نظر، آزمایشگاه‌های هوش مصنوعی، از جمله Open-AI، تلاش کرده‌اند تا اطمینان حاصل کنند که شناسایی محتوای تولید شده توسط هوش مصنوعی (متون، تصاویر، فیلم‌ها و غیره) به راحتی قابل شناسایی است، همانطور که در این مقاله نشان داده شده است. موارد جدید در انتشار (WNIP) در مورد واترمارکینگ

نتیجه

درست مانند سیاست حفظ حریم خصوصی که در وب‌سایت‌هایی که مرور می‌کنیم اجرا می‌شود و از قدرت انتخاب ما اطمینان حاصل می‌کند (خواه موافق به اشتراک گذاشتن اطلاعات خود باشیم یا نه)، من همچنان معتقدم که می‌توان به آینده‌ای فکر کرد که در آن هوش مصنوعی به روشی ایمن کار کند. ایجاد پیشرفت های جدید برای جامعه ما

آیا می خواهید همچنان با بهترین شیوه های بازاریابی به روز شوید؟ اکیداً به شما پیشنهاد می کنم مشترک شدن در The Beat، خبرنامه تعاملی محتوا مارکتینگ. در آنجا، تمام گرایش‌های مهم در چشم‌انداز بازاریابی دیجیتال را خواهید یافت. آنجا میبینمت!



محتوا مارکتینگ

By psychen

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *