هوش مصنوعی؛ فرشته یا شیطان

هفته نامه اکونومیست در طرح جلد شماره جدید خود تصویری از دو بعد مثبت و شیطانی هوش مصنوعی منتشر کرده و یک پرسش اساسی را مطرح کرده است: «پیشرفت سریع در هوش مصنوعی ترس و هیجان همگان را برانگیخته است. اما واقعا چقدر باید نگران بود؟»
کد خبر: ۹۵۷۰۹

هوش مصنوعی؛ فرشته یا شیطان

 

به گزارش مانا، در سر‌مقاله شماره 22 آپریل سال 2023 میلادی آمده است که هوش مصنوعی نه تنها مشاغل، دقت حقایق و آبرو و اعتبار را تهدید می‌کند بلکه وجود بشریت را نیز تهدید کرده و همین باعث درخواست برای توقف توسعه‌ این فنّاوری شده است اما آیا محققان بیش از حد واکنش نشان داده‌اند؟

«آیا باید تمامی مشاغل، از جمله مشاغل رضایت بخش خود را ماشینی کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است تعدادشان از ما پیشی بگیرد، هوشمندتر از ما شوند و در نهایت جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را به جان بخریم؟»

این سؤالات ماه گذشته در نامه‌ای سرگشاده توسط مؤسسه آیندۀ زندگی Future of Life Institute مطرح شد. این نامه خواستار یک «توقف» شش ماهه در پروژه های فوق پیشرفته هوش مصنوعی شده و توسط بزرگان فنّاوری از جمله ایلان ماسک امضا شد. این برجسته‌ترین نمونه تاکنون است که نشان می‌دهد چگونه پیشرفت سریع در هوش مصنوعی باعث ایجاد نگرانی در مورد خطرات بالقوه این فنّاوری شده است.

یک سناریوی مرگبار

اخیراً چت جی پی تی که یک چت بات مدل زبانی بزرگ (llms) است و توسط شرکت OpenAI  توسعه یافته است، حتی سازندگان خود را با استعداد غیرمنتظره‌اش غافلگیر کرده است.  این توانایی‌های نوظهور شامل همه چیز می‌شود. از حل پازل‌های منطقی و نوشتن کدهای کامپیوتری گرفته تا شناسایی فیلم‌ها از روی خلاصه داستان‌ها که با اموجی (Emoji) نوشته شده‌اند.

این مدل‌ها می‌توانند رابطه انسان‌ها با رایانه، دانش و حتی با خودشان را تغییر دهند. طرفداران هوش مصنوعی درباره پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، طراحی مواد جدید برای کمک به مبارزه با تغییرات جوی یا از بین بردن پیچیدگی‌های انرژی همجوشی بحث می‌کنند. اما برای دیگران، این واقعیت که قابلیت‌های هوش مصنوعی در حال پیشی گرفتن  از درک سازندگانش است، یک سناریوی علمی-تخیلی را که در آن یک ماشین از مخترع خود پیشی می‌گیرد و اغلب با عواقب مرگبار همراه است، زنده می کند.

ترکیبی جوشان از هیجان و ترس

این ترکیب جوشان از هیجان و ترس، سنجش فرصت‌ها و خطرات را دشوار می‌کند. اما می توان از سایر صنایع و از تغییرات فنّاوری گذشته درس گرفت. پس چه چیزی تغییر کرده است که هوش مصنوعی را بسیار توانمندتر کرده است؟ چقدر باید ترسید؟ و دولت ها چه باید بکنند؟

اکونومیست در این قسمت به بررسی مدل‌های زبانی بزرگ و آینده آن پرداخته است.

موج اول سیستم‌های هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، بر روی داده‌های آموزشی با برچسب‌گذاری دقیق تکیه داشت. هنگامی که در معرض تعداد کافی نمونه برچسب‌گذاری شده قرار می‌گیرند، می‌توانند کارهایی مانند تشخیص تصاویر یا رونویسی گفتار را بیاموزند. سیستم‌های امروزی نیازی به برچسب‌گذاری اولیه ندارند و در نتیجه می‌توان با استفاده از مجموعه داده‌های بسیار بزرگ‌تری که از منابع آنلاین گرفته شده‌اند، آموزش ببینند. مدل‌های زبانی بزرگ در واقع می‌تواند در کل اینترنت آموزش ببینند - که توانایی های خوب و بد آنها را توضیح می‌دهد.

زمانی که چت جی پی تی در نوامبر منتشر شد، این قابلیت‌ها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته از آن استفاده کردند و سپس 100 میلیون نفر در عرض دو ماه. بعد هم به سرعت از آن برای تولید انشاهای مدرسه و سخنرانی‌های عروسی استفاده شد. محبوبیت چت جی پی تی و اقدام مایکروسافت برای گنجاندن آن در بینگ، موتور جستجوی خود، شرکت‌های رقیب را بر آن داشت تا آن‌ها نیز چت بات‌های خود را منتشر کنند.

تهدیدی برای بشریت؟

برخی از این موارد نتایج عجیبی به همراه داشت. چت بات بینگ( Bing Chat)  به یک روزنامه‌نگار پیشنهاد کرد که همسرش را ترک کند. چت جی پی تی توسط یک استاد حقوق به افترا متهم شده است. مدل‌های زبانی بزرگ، پاسخ‌هایی را ارائه می‌کند که ظاهراً حقیقت دارد اما اغلب حاوی اشتباهات واقعی یا جعل هستند. با این حال، مایکروسافت، گوگل و سایر شرکت‌های فنّاوری شروع به استفاده از llms در محصولات خود کرده‌اند تا به کاربران در ایجاد اسناد و انجام کارهای دیگر کمک کنند.

شتاب اخیر در قدرت و دید سیستم‌های هوش مصنوعی و افزایش آگاهی از توانایی‌ها و نقص‌های آن‌ها، این نگرانی را ایجاد کرده است که این فنّاوری اکنون به سرعت در حال پیشرفت است که نمی‌توان آن را به طور ایمن کنترل کرد. از این رو فراخوان برای توقف و نگرانی فزاینده برای این است که هوش مصنوعی می تواند نه تنها مشاغل، صحت مطالب و آبرو و اعتبار، بلکه موجودیت خود بشریت را نیز تهدید کند.

انقراض؟ شورش؟

ترس از اینکه ماشین‌ها مشاغل را بدزدند، به قرن‌ها پیش بر‌می‌گردد. اما تاکنون فنّاوری جدید، مشاغل جدیدی را برای جایگزینی مشاغلی که ویران کرده، ایجاد کرده است. اما آیا ممکن است که این بار متفاوت باشد؟ جابه‌جایی ناگهانی در بازار کار را نمی‌توان رد کرد، حتی اگر تا‌کنون هیچ نشانه‌ای از آن وجود نداشته باشد. فنّاوری‌های قبلی جایگزین کارهای غیر ماهر شده بود، اما llms می‌تواند برخی از کارهای کارگران یقه سفید (کارکنانی که پشت میز کار می کنند) ، مانند خلاصه کردن اسناد و نوشتن کد را انجام دهد.

درجه خطر هوش مصنوعی به شدت مورد بحث قرار گرفته است. کارشناسان به گروه‌های مختلف نقسیم شده‌اند. در یک نظرسنجی از محققان هوش مصنوعی که در سال 2022 میلادی انجام شد، 48 درصد فکر کردند که حداقل 10 درصد احتمال دارد که تأثیر هوش مصنوعی "بسیار بد (مثلاً انقراض انسان)" باشد. اما 25 درصد گفتند که خطر 0 درصد است. بقیه  ریسک را 5 درصد اعلام کردند. کابوس این است که یک هوش مصنوعی پیشرفته می‌تواند با ساختن سم یا ویروس یا ترغیب انسان به انجام اقدامات تروریستی باعث آسیب در مقیاس گسترده می شود. محققان نگرانند که اهداف آینده هوش مصنوعی ممکن است با اهداف خالقان  آنها همسو نباشد.

این سناریوها را نباید نادیده گرفت. اما همه اینها شامل مقدار زیادی حدس و گمان است. همچنین برخی در مورد خطرات هوش مصنوعی اغراق می‌کنند. اعمال مقررات سنگین، یا یک توقف، امروز واکنشی بیش از حد به نظر می‌رسد. توقف نیز غیرقابل اجرا خواهد بود.

مقررات لازم است، اما به دلایل پیش پا افتاده تر از نجات بشریت. سیستم های هوش مصنوعی موجود نگرانی های واقعی را در مورد سوگیری، حریم خصوصی و حقوق مالکیت معنوی ایجاد می کند. با پیشرفت فناوری، مشکلات دیگری نیز ممکن است آشکار شوند. نکته کلیدی این است که بین وعده هوش مصنوعی و ارزیابی خطرات تعادل برقرار کنید و برای سازگاری با آن آماده باشید.

رویکرد دولت‌ها به هوش مصنوعی

تاکنون دولت ها سه رویکرد متفاوت را در پیش گرفته‌اند. در یک انتهای این طیف بریتانیا قرار دارد که به قوانین یا نهادهای نظارتی جدیدی نیست اما مقررات موجود را برای سیستم‌های هوش مصنوعی اعمال می‌کند. هدف افزایش سرمایه گذاری و تبدیل بریتانیا به یک "ابرقدرت هوش مصنوعی" است. آمریکا نیز رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون درباره تعیین قوانین سیستم های هوش مصنوعی نظرات عموم کاربران را درخواست کرده است.

اتحادیه اروپا موضع سختگیرانه تری اتخاذ می کند. قانون پیشنهادی آن، استفاده‌های مختلف از هوش مصنوعی را بر اساس درجه ریسک طبقه‌بندی می‌کند وهرچه درجه خطر افزایش یابد به نظارت سخت تری نیاز دارد. برخی از کاربردهای هوش مصنوعی به طور کلی ممنوع هستند، مانند شناسایی بایومتریک از راه دور. شرکت هایی که قوانین را زیر پا بگذارند جریمه خواهند شد. برای برخی از منتقدان، این مقررات را خفه کننده می‌دانند.

رویکرد چین در قبال هوش مصنوعی؛ مطابقت با ارزش های سوسیالیستی

گروه سوم معتقدند که حتی رویکرد سخت گیرانه‌تری لازم است. دولت‌ها باید با هوش مصنوعی مانند داروها رفتار کنند. یعنی آزمایش‌های دقیق و تأیید اولیه قبل از انتشار عمومی.  چین برخی از این کارها را انجام می‌دهد و شرکت‌ها را ملزم می‌کند تا محصولات  هوش مصنوعی را ثبت کنند و قبل از عرضه، بازبینی امنیتی را انجام دهند. اما در حقیقت هدف از این نظارت فقط امنیت نیست.  یک شرط کلیدی درچین این است که محتوای هوش مصنوعی باید با ارزش های اساسی سوسیالیستی مطابقت داشته باشد.

چه باید کرد؟

چه باید کرد؟ بعید است که رویکردی مثل رویکرد بریتانیا، کافی باشد. اگر هوش مصنوعی به اندازه ماشین‌ها، هواپیماها و داروها یک فنّاوری مهم باشد – که دلایل خوبی برای پذیرش آن وجود دارد - پس مانند آنها به قوانین جدیدی نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیک‌ترین مدل به هدف است، اگرچه سیستم طبقه‌بندی آن بیش از حد پیچیده است و رویکرد مبتنی بر اصول انعطاف‌پذیرتر خواهد بود. افشای قانع کننده در مورد نحوه آموزش سیستم ها، نحوه عملکرد و نحوه نظارت آنها و نیاز به بازرسی، با قوانین مشابه در سایر صنایع  نیز قابل استفاده خواهد بود.

این می تواند در صورت نیاز، مقررات سخت گیرانه تری را در طول زمان فراهم کند. همچنین ممکن است معاهدات بین‌دولتی در صورت بروز شواهد خطر ایجاد شوند؛ مشابه پیمان‌های بر تسلیحات هسته‌ای. برای نظارت بر این خطر، دولت‌ها می‌توانند زمانی که شرکت‌ها انگیزه‌ای برای سرمایه‌گذاری به دراین حوزه ها ندارند، بدنه‌ای را با الگوبرداری از سرن ( سازمان اروپایی پژوهش‌های هسته‌ای که بزرگترین آزمایشگاه فیزیک ذره ای در جهان است و بیست کشور اروپایی عضو آن هستند) تشکیل دهند که می‌تواند درباره هوش مصنوعی  مطالعه کند .

این فنّاوری قدرتمند خطرات جدیدی را ایجاد می کند، اما فرصت‌های خارق العاده‌ای را نیز ارائه می‌دهد. متعادل کردن این دو به معنای گام برداشتن با دقت است. یک رویکرد سنجیده امروزی می‌تواند پایه‌هایی را فراهم کند که قوانین بیشتری را می‌توان در آینده اضافه کرد. اما زمان شروع ساخت آن پایه‌ها اکنون فرا رسیده است.

ارسال نظرات
آخرین اخبار