دانش و فناوری > فناوری اطلاعات و ارتباطات

افول حکمرانی سختگیرانه در هوش مصنوعی؛ خیزش گفتمان خوش‌بینانه



به گزارش خبرنگار مهر؛ در سال‌های اخیر، نگرانی‌ها درباره مخاطرات فاجعه‌بار هوش مصنوعی به شکل فزاینده‌ای در فضای عمومی و حوزه سیاست‌گذاری جهانی مطرح شده است. طیف وسیعی از پژوهشگران، فناوران، دانشگاهیان و کنشگران اجتماعی نسبت به روند شتابان توسعه مدل‌های زبانی و سامانه‌های خودکار هشدار داده‌اند؛ روندی که به‌زعم آنان، در صورت تداوم بدون ضوابط ایمنی و اخلاقی، می‌تواند پیامدهایی مرگبار و برگشت‌ناپذیر برای آینده بشریت به‌دنبال داشته باشد.

این گروه که در گفتمان عمومی گاه با عنوان «AI doomers» شناخته می‌شوند، معتقدند ظهور سامانه‌های هوش مصنوعی فوق‌پیشرفته ممکن است به تضعیف نهادهای دموکراتیک، تمرکز بی‌سابقه قدرت اطلاعاتی و کنترل در دست نخبگان فناور، دستکاری افکار عمومی و حتی بروز سناریوهایی منتهی به انقراض انسان منجر شود.

اما در سال ۲۰۲۴، این جریان هشداردهنده که تا پیش از آن توانسته بود فضای سیاسی و رسانه‌ای را تا حدی تحت تأثیر قرار دهد، به شکل چشم‌گیری به حاشیه رانده شد و گفتمانی تازه، با رنگ و بوی عمل‌گرایی و خوش‌بینی فناورانه، جای آن را گرفت؛ گفتمانی که در آن، هوش مصنوعی مولد نه به‌عنوان یک تهدید، بلکه به‌مثابه نیروی پیشران رشد اقتصادی، کارایی نهادی و نوآوری فناورانه تصویر می‌شد. این چرخش پارادایم نه‌تنها در محافل سیاست‌گذاری، بلکه در رسانه‌ها، بازارهای سرمایه‌گذاری و گفتمان عمومی نیز بازتاب یافت و منافع آن، بیش از همه، متوجه شرکت‌های بزرگ فناوری و نهادهای سرمایه‌گذاری خطرپذیر بود.

نقطه عطف در ۲۰۲۳ و تغییر گفتمانی در ۲۰۲۴

سال ۲۰۲۳ را می‌توان نقطه عطفی در شکل‌گیری و گسترش جنبش ایمنی هوش مصنوعی دانست. در این سال، مجموعه‌ای از وقایع پر اهمیت موجب شد تا هشدارها نسبت به خطرات بنیادین فناوری‌های هوش مصنوعی از حاشیه محافل دانشگاهی و تحقیقاتی خارج شده و به اولویت‌هایی در سطح سیاست‌گذاری کلان تبدیل شوند. چهره‌هایی سرشناس مانند ایلان ماسک به‌همراه بیش از هزار پژوهشگر، استاد دانشگاه و مدیر فناوری، در بیانیه‌ای تاریخی خواستار توقف موقت توسعه مدل‌های زبانی پیشرفته شدند تا فرصتی برای طراحی چارچوب‌های ایمنی و اخلاقی فراهم گردد. در ادامه، نامه‌ای دیگر با امضای برخی از برجسته‌ترین دانشمندان فعال در شرکت‌هایی چون «OpenAI»، دیپ مایند و گوگل منتشر شد که در آن تصریح شده بود خطر انقراض بشریت ناشی از هوش مصنوعی باید همچون تهدیدات هسته‌ای، زیستی و اقلیمی به رسمیت شناخته شود.

دولت ایالات متحده به رهبری جو بایدن در واکنش به این فشارهای فزاینده، فرمان اجرایی جامعی صادر کرد که هدف آن حفاظت از مردم آمریکا در برابر آثار منفی سامانه‌های هوش مصنوعی، از جمله سوگیری الگوریتمی، تهدیدات امنیتی و آسیب‌های اقتصادی بود. همچنین، در تحولی بی‌سابقه، هیئت‌مدیره «OpenAI» تصمیم به برکناری مدیرعامل وقت، سم آلتمن گرفت و اعلام کرد که سطح اعتماد موردنیاز برای هدایت توسعه هوش مصنوعی جامع (AGI) از سوی وی تأمین نمی‌شود. این اقدام، هرچند موقتی، نشان‌دهنده حساسیت بی‌سابقه نسبت به مسئولیت‌پذیری در قبال فناوری‌های تحول‌آفرین بود.

با این حال، این جریان پرشتاب و پرطنین که در سال ۲۰۲۳ توانسته بود توجه جهانیان را به خود جلب کند، در سال ۲۰۲۴ با موجی از مقاومت مواجه شد و به تدریج از مرکز گفتمان سیاست‌گذاری کنار رفت.

خیزش گفتمان خوش‌بینانه و ضد تنظیم‌گری

در سال ۲۰۲۴، گفتمان خوش‌بینانه نسبت به آینده هوش مصنوعی با حمایت گسترده شرکت‌های بزرگ فناوری، صندوق‌های سرمایه‌گذاری خطرپذیر و کارآفرینان بانفوذ سیلیکون‌ولی به‌شکل گسترده‌تری رواج یافت. این جریان گفتمانی تلاش کرد تا روایتی مسلط از هوش مصنوعی به‌عنوان عامل نجات‌بخش اقتصاد، تضمین‌کننده برتری ملی و شتاب‌دهنده نوآوری شکل دهد؛ روایتی که در تقابل مستقیم با هشدارها بود.

مارک اندریسن، بنیان‌گذار شرکت سرمایه‌گذاری «a16z»، در این سال، در مقاله‌ای پرسر و صدا با عنوان «چرا هوش مصنوعی جهان را نجات خواهد داد»، با لحنی قاطع و طعنه‌آمیز به رویکرد بدبینانه تاخت و آن را فاقد بنیادهای عقلانی و علمی دانست. او در این نوشتار، هوش مصنوعی را فرصتی تاریخی توصیف کرد که باید با تمام توان آن را به‌کار گرفت، حتی اگر به قیمت عبور از ضوابط سنتی تنظیم‌گری باشد. اندریسن با استناد به منطق رقابت‌پذیری جهانی، به‌ویژه در برابر چین، از بازتولید ایده معروف «سریع حرکت کن و همه‌چیز را به هم بزن» دفاع کرد و آن را راه‌حلی ضروری برای تضمین جایگاه رهبری آمریکا در عصر حاضر دانست.

هم‌زمان با گسترش این گفتمان خوش‌بینانه، حمایت نهادهای سیاسی از رویکرد ایمنی نیز رو به افول گذاشت. بازگشت سم آلتمن به ریاست «OpenAI»، تنها چند روز پس از برکناری جنجالی‌اش، نشانه‌ای از تثبیت مجدد نگاه تجاری و توسعه‌محور در رأس یکی از مهم‌ترین شرکت‌های هوش مصنوعی جهان بود. هم‌زمان، گروهی از پژوهشگران حوزه ایمنی که پیش‌تر در این شرکت فعال بودند، در اعتراض به تغییر اولویت‌های سازمانی و کمرنگ شدن ملاحظات اخلاقی، آن را ترک کردند. افزون بر این، فرمان اجرایی جو بایدن که در سال ۲۰۲۳ با هدف تقویت ایمنی و شفافیت در توسعه هوش مصنوعی صادر شده بود، در سال ۲۰۲۴ عملاً بی‌اثر شد و با روی کار آمدن دونالد ترامپ در جایگاه رئیس‌جمهور منتخب، رسماً لغو شد. ترامپ و مشاوران نزدیکش که عمدتاً از چهره‌های مخالف تنظیم‌گری محسوب می‌شوند، صراحتاً اعلام کردند که رویکرد نظارتی دولت پیشین مانعی برای نوآوری و تهدیدی برای رقابت‌پذیری آمریکا بوده است. این مجموعه تحولات، چرخش آشکار فضای سیاست‌گذاری ایالات متحده را از نگرانی‌های ایمنی به‌سوی اولویت‌های اقتصادی و ژئوپلیتیکی نمایان ساخت.

لایحه «SB 1047»؛ صحنه تقابل رویکردها

مهم‌ترین میدان تقابل میان دو طرف در سال ۲۰۲۴، لایحه «SB 1047» در ایالت کالیفرنیا بود؛ لایحه‌ای که با حمایت پژوهشگرانی چون جفری هینتون و یوشوا بنجیو و به ابتکار سناتور اسکات وینر تدوین شد. هدف این لایحه، ایجاد نظامی ایمنی‌محور برای مهار مخاطرات بالقوه سامانه‌های پیشرفته هوش مصنوعی بود؛ مخاطراتی از جمله حملات سایبری در مقیاس ملی، پیامدهای اقتصادی فاجعه‌بار و حتی سناریوهای تهدیدآمیز برای بقای انسان. لایحه با تعیین الزامات خاصی برای توسعه‌دهندگان مدل‌های هوش مصنوعی بسیار بزرگ، از جمله تعهد به ارزیابی ایمنی و ارائه گزارش‌های منظم به دولت ایالتی، کوشید چارچوبی قانونی برای کاهش ریسک‌های بلندمدت توسعه این فناوری فراهم آورد. لایحه مذکور با وجود مخالفت‌های گسترده، توانست از با موفقیت از مجلس قانون‌گذاری کالیفرنیا عبور کند، اما در مرحله نهایی، با وتوی فرماندار کالیفرنیا، گوین نیوسام مواجه شد.

نیوسام در توضیح تصمیم خود، اظهار داشت که «نمی‌توان با این لایحه همه مشکلات را حل کرد» و با این جمله، نوعی واقع‌گرایی اجرایی را بازتاب داد که در میان بسیاری از سیاست‌گذاران رواج یافته است: اذعان به پیچیدگی‌های فنی و اجرایی تنظیم‌گری در حوزه‌ای که با سرعت بی‌سابقه در حال تحول است و فاقد ابزارهای نظارتی آزموده‌شده و کارآمد به شمار می‌رود.

در برابر این لایحه، موجی از مخالفت سازمان‌یافته از سوی شرکت‌های سرمایه‌گذاری خطرپذیر، از جمله «Y Combinator» و «a16z»، به راه افتاد. این نهادها با راه‌اندازی کمپین‌های تبلیغاتی گسترده، از جمله انتشار نامه‌های سرگشاده و مصاحبه‌های رسانه‌ای، کوشیدند افکار عمومی و کارآفرینان جوان را نسبت به پیامدهای احتمالی این قانون نگران سازند. یکی از محوری‌ترین ادعاهای این کمپین، امکان تعقیب کیفری توسعه‌دهندگان به دلیل ارائه اطلاعات نادرست در گزارش‌های ایمنی بود. ادعایی که از سوی نهادهایی نظیر مؤسسه بروکینگز، تحریف واقعیت دانسته شد، چراکه لایحه صرفاً به قاعده‌ای عمومی اشاره کرده بود مبنی بر اینکه درج اطلاعات نادرست در اسناد رسمی، می‌تواند مصداق شهادت دروغ تلقی شود؛ قاعده‌ای که پیش‌تر نیز در نظام حقوقی وجود داشته و کمتر موجب پیگرد قضائی شده است. با این حال، فضای رسانه‌ای ایجادشده توسط مخالفان باعث شد تا لایحه در افکار عمومی به‌مثابه تهدیدی علیه نوآوری و آزادی فناورانه جلوه کند.

افول گفتمان ایمنی و پیامدهای اجتماعی

سال ۲۰۲۴ نه‌تنها صحنه افول گفتمان فاجعه محور به هوش مصنوعی، بلکه دوره تثبیت و قدرت‌گیری روایتی فناورانه و اقتصادی بود که در آن مفاهیمی همچون رقابت راهبردی با چین، بهره‌گیری نظامی از ظرفیت‌های هوش مصنوعی و تبدیل این فناوری به موتور محرک رشد اقتصادی، به‌طور کامل بر نگرانی‌های اخلاقی، انسانی و ایمنی غلبه یافتند. در این گفتمان غالب، هوش مصنوعی نه‌تنها تهدید تلقی نمی‌شد، بلکه فرصتی راهبردی برای برتری ژئوپلیتیک و تسلط فناورانه محسوب می‌شد. استفاده گسترده از واژگان توسعه‌محور در بیانیه‌ها، نشست‌ها و اسناد سیاستی نیز بیانگر تغییر لحن و اولویت‌گذاری سیاست‌گذاران بود؛ تغییری که در آن، هشدارها درباره سناریوهای فاجعه‌بار بیشتر به‌چشم مانعی بر سر راه نوآوری تعبیر می‌شدند.

با این حال، جریان مدافع ایمنی، به‌رغم شکست‌های مقطعی، عقب ننشسته است. حامیان لایحه «SB 1047»، از جمله نهادهایی مانند «Encode» و برخی سناتورهای ایالتی، اعلام کرده‌اند که در سال ۲۰۲۵ با نسخه‌ای اصلاح‌شده و احتمالاً هدفمندتر، بازخواهند گشت. هدف آن‌ها ایجاد تعادلی میان پویایی فناورانه و ضرورت‌های اخلاقی و ایمنی در توسعه سامانه‌های پیشرفته هوش مصنوعی است. از سوی دیگر، سرمایه‌گذاران و کنشگران مخالف تنظیم‌گری نیز نشانه‌های روشنی از بسیج دوباره منابع مالی، رسانه‌ای و سیاسی خود برای مقابله با هرگونه مداخله قانونی بروز داده‌اند. چشم‌انداز این تقابل، از هم‌اکنون نشانه‌هایی از یکی از جدی‌ترین رویارویی‌های سیاست‌گذاری در حوزه فناوری را در سال پیش‌رو ترسیم می‌کند.

با وجود گفتمان غالب خوش‌بینانه، برخی رخدادها یادآور آن هستند که خطرات هوش مصنوعی، صرفاً مفاهیمی تخیلی یا آینده‌نگر نیستند.

به‌نظر می‌رسد سال ۲۰۲۵ میدان جدیدی برای رویارویی گفتمان‌های متضاد درباره آینده هوش مصنوعی باشد؛ از یک‌سو تلاش برای طراحی نظام‌های ایمنی و پاسخ‌گویی و از سوی دیگر، مقاومت سازمان‌یافته در برابر هرگونه تنظیم‌گری. اما واقعیت این است که نادیده‌گرفتن تهدیدات، خود می‌تواند خطرناک‌ترین انتخاب باشد.


منبع خبرگزاری مهر

نوشته های مشابه

دکمه بازگشت به بالا