مقاله توسط سایت محتوا مارکتینگ
همانطور که هوش مصنوعی قدرتمندتر و فراگیرتر می شود، نگرانی ها در مورد تأثیر آن بر جامعه همچنان افزایش می یابد. در ماههای اخیر، شاهد پیشرفتهای باورنکردنی مانند GPT-4، نسخه جدید مدل زبان ChatGPT از Open-AI بودهایم، که میتواند بسیار سریع یاد بگیرد و با پاسخهای با کیفیت زیادی پاسخ دهد که میتواند از جهات مختلف مفید باشد. اما در عین حال، نگرانی های زیادی را در مورد آینده تمدن ما ایجاد کرد.
هفته گذشته، در “نامه ای سرگشاده” با امضای مدیرعامل تسلا، ایلان ماسک، استیو وزنیاک، بنیانگذار اپل، و همچنین توسط نمایندگان طیف وسیعی از زمینهها مانند روباتیک، یادگیری ماشین و علوم کامپیوتر، خواستار توقف ۶ ماهه آزمایشهای غولآمیز هوش مصنوعی شدند. گفتن آن نشان دهنده خطری برای بشریت است.
از آن زمان، من نظرات برخی از متخصصان را دنبال میکنم و از شما دعوت میکنم تا در بازتاب این سناریو با من همراه باشید.
نامه سرگشاده
را «مکث آزمایشهای هوش مصنوعی غولپیکر: یک نامه سرگشاده»، که در حال حاضر تقریباً 6 هزار امضا دارد، به عنوان یک موضوع فوری، از آزمایشگاه های هوش مصنوعی می خواهد که برخی از پروژه ها را متوقف کنند. ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند.برجسته در هدر می گوید.
هشدار می دهد، “آزمایشگاه های هوش مصنوعی در یک مسابقه خارج از کنترل برای توسعه و استقرار ذهن های دیجیتالی قدرتمندتر هستند که هیچ کس – حتی سازندگان آنها – نمی توانند درک کنند، پیش بینی کنند یا به طور قابل اعتماد کنترل کنند.”
و همچنین آینده ای «آخرالزمانی» را پیش بینی می کند: «آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید تمام مشاغل، از جمله کارهای انجامدهنده را خودکار کنیم؟ آیا باید ذهنهای غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟»
“وزن” واقعی این نامه چقدر است؟
در ابتدا، همدردی با علت آسان است، اما بیایید در تمام زمینه های جهانی درگیر تأمل کنیم.
علیرغم تایید این نامه توسط لیست بلندبالایی از مقامات برجسته فناوری، از جمله مهندسان گوگل و متا، این نامه جنجال های شدیدی را در مورد برخی از مشترکین نماینده که با رویه های آنها در مورد محدودیت های امنیتی مربوط به فناوری هایشان، مانند ایلان ماسک، مطابقت ندارد، ایجاد کرده است. طبق گزارشات، ماسک سال گذشته تیم “هوش مصنوعی اخلاقی” خود را اخراج کرد سیمی، آینده پژوهیو بسیاری از سایت های خبری دیگر در آن زمان.
شایان ذکر است که ماسک که یکی از بنیانگذاران Open-AI بود و شرکت را در سال 2018 ترک کرد، بارها در توییتر با انتقاد شدید از پیشرفت های ChatGPT به آنها حمله کرده است.
سم آلتمن، یکی از بنیانگذاران Open-AI، در گفتگو با پادکست لکس فریدمن، ادعاهایی مبنی بر اینکه نگرانی ها در مورد آزمایش های AGI مشروع هستند و اذعان به اینکه خطرات، مانند اطلاعات نادرست، واقعی هستند.
همچنین در مصاحبه با wsjآلتمن میگوید که این شرکت مدتهاست که نگران امنیت فناوریهای خود بوده و بیش از 6 ماه را صرف آزمایش این ابزار قبل از انتشار آن کردهاند.
اثرات عملی آن چیست؟
اندرو نگ، بنیانگذار و مدیر عامل Landing AI، موسس DeepLearning.AI و شریک عمومی مدیر عامل AI Fund، در لینکدین می گوید درخواست برای توقف 6 ماهه پیشرفت هوش مصنوعی فراتر از GPT-4 یک ایده وحشتناک است. من برنامه های جدید بسیاری را در آموزش، مراقبت های بهداشتی، غذا و … می بینم که به بسیاری از افراد کمک می کند. بهبود GPT-4 کمک خواهد کرد. بیایید بین ارزش عظیمی که هوش مصنوعی ایجاد می کند، تعادل ایجاد کنیم. خطرات واقع بینانه.»
او همچنین گفت هیچ راه واقع بینانه ای برای اجرای مهلت قانونی و جلوگیری از افزایش LLM توسط همه تیم ها وجود ندارد، مگر اینکه دولت ها وارد عمل شوند. مکث کردن دولتها از فناوریهای نوظهور که آنها را درک نمیکنند، ضدرقابتی است، یک سابقه وحشتناک ایجاد میکند و یک سیاست نوآوری وحشتناک است.»
مانند Ng، بسیاری دیگر از متخصصان فناوری نیز با نکته اصلی نامه مخالف هستند و درخواست توقف آزمایش ها را دارند. به نظر آنها از این طریق میتوانیم به پیشرفتهای عظیم علم و اکتشافات بهداشتی آسیب بزنیم، مانند تشخیص سرطان سینههمانطور که ماه گذشته در نیویورک تایمز منتشر شد.
اخلاق و مقررات هوش مصنوعی: یک نیاز واقعی
در حالی که یک مسابقه واقعی بین غولها برای قرار دادن راهحلهای هوشمندانه LLM در بازار در جریان است، واقعیت این است که پیشرفت کمی در جهت مقررات و سایر اقدامات احتیاطی که باید «برای دیروز» انجام شود، صورت گرفته است. اگر به آن فکر کنیم، حتی لازم نیست برای تأیید فوریت، روی رویدادهای «آخرالزمانی» تمرکز کنیم، رویدادهای طولانی مدت، مانند موارد ذکر شده در نامه. مشکلات فعلی و سرنوشت ساز ناشی از «اطلاعات غلط» کافی است.
در اطراف این موضوع، اخیراً دیدهایم که چگونه هوش مصنوعی میتواند با مونتاژهای عالی از تصاویر، مانند تصویر ویروسی، «حقیقت» ایجاد کند. پاپ با کت پفی که در چند روز گذشته، در میان بسیاری دیگر از تولیدات ویدئویی «جعلی»، با استفاده از صداها و چهرههای افراد مشهور، بر وب مسلط شده است.
از این نظر، آزمایشگاههای هوش مصنوعی، از جمله Open-AI، تلاش کردهاند تا اطمینان حاصل کنند که شناسایی محتوای تولید شده توسط هوش مصنوعی (متون، تصاویر، فیلمها و غیره) به راحتی قابل شناسایی است، همانطور که در این مقاله نشان داده شده است. موارد جدید در انتشار (WNIP) در مورد واترمارکینگ
نتیجه
درست مانند سیاست حفظ حریم خصوصی که در وبسایتهایی که مرور میکنیم اجرا میشود و از قدرت انتخاب ما اطمینان حاصل میکند (خواه موافق به اشتراک گذاشتن اطلاعات خود باشیم یا نه)، من همچنان معتقدم که میتوان به آیندهای فکر کرد که در آن هوش مصنوعی به روشی ایمن کار کند. ایجاد پیشرفت های جدید برای جامعه ما
آیا می خواهید همچنان با بهترین شیوه های بازاریابی به روز شوید؟ اکیداً به شما پیشنهاد می کنم مشترک شدن در The Beat، خبرنامه تعاملی محتوا مارکتینگ. در آنجا، تمام گرایشهای مهم در چشمانداز بازاریابی دیجیتال را خواهید یافت. آنجا میبینمت!