شمانیوز
شما نیوز

هوش مصنوعی

سرگیجه جهان با هوش مصنوعی | هوش مصنوعی روز بعد روز ترسناک‌تر

سرگیجه جهان با هوش مصنوعی | هوش مصنوعی روز بعد روز ترسناک‌تر

روزی ممکن است این فناوری به تهدیدی جهانی برای بشر تبدیل شود و کشورها، علی‌رغم رقابت‌های فعلی، برای مقابله با آن متحد خواهند شد.

به گزارش شمانیوز: تحولات سریع در حوزه هوش مصنوعی، علاوه بر فراهم‌کردن فرصت‌های گسترده، نگرانی‌هایی جدی درباره کاربرد‌های نظامی و تسلیحاتی این فناوری به وجود آورده است. کشور‌ها در رقابتی فزاینده تلاش دارند تا با استفاده از هوش مصنوعی، قدرت نظامی و دفاعی خود را ارتقا دهند. بااین‌حال، این رقابت می‌تواند به نقطه‌ای خطرناک برسد؛ نقطه‌ای که خود بشر از تسلط بر هوش مصنوعی باز بماند.

 

جفری هینتون، دانشمند برجسته و پدرخوانده هوش مصنوعی، در سمیناری در آکادمی سلطنتی علوم مهندسی سوئد، هشدار داد که توسعه سلاح‌های خودمختار و فوق‌هوشمند می‌تواند به تهدیدی جدی برای حیات بشر تبدیل شود. وی با اشاره به ساخت سلاح‌های خودمختار مرگبار توسط کشور‌های مختلف، تأکید کرد:

«درمورد خطراتی مانند سلاح‌های خودمختار، کشور‌ها در حال حاضر همکاری نخواهند کرد. هر کشوری مشغول توسعه این نوع تسلیحات است و سرعت تولید آنها کاهش نخواهد یافت. اما روزی که هوش مصنوعی به تهدیدی واقعی برای زندگی بشر تبدیل شود، کشور‌ها برای مبارزه با آن متحد خواهند شد.»

 

هینتون پیش‌بینی می‌کند که هوش مصنوعی در آینده‌ای نه‌چندان دور از انسان هوشمندتر خواهد شد. او می‌گوید:

«تقریباً همه محققان هوش مصنوعی بر این باورند که سیستم‌های هوش مصنوعی در نهایت از ما هوشمندتر خواهند شد. بحث فقط بر سر زمان وقوع این اتفاق است؛ ۵ سال دیگر یا ۳۰ سال دیگر؟ سؤال اینجاست که آیا این سیستم‌ها زمام امور را در دست خواهند گرفت و آیا ما می‌توانیم مانع این اتفاق شویم؟ اینجاست که همکاری بین‌المللی اجتناب‌ناپذیر خواهد بود.»

 

هینتون برای توضیح بیشتر، چین را مثال می‌زند و معتقد است که حتی حزب کمونیست چین نیز نمی‌خواهد قدرت را به هوش مصنوعی واگذار کند. او این همکاری جهانی را مشابه جنگ سرد میان آمریکا و روسیه می‌داند. در آن دوران، علی‌رغم رقابت و دشمنی بین دو کشور، هدف مشترک جلوگیری از جنگ هسته‌ای موجب همکاری غیرمستقیم آنها شد.

 

تشکیل آژانس بین‌المللی برای نظارت بر هوش مصنوعی

همزمان با هشدار‌های جفری هینتون، سم آلتمن، مدیرعامل شرکت OpenAI، نیز نگرانی‌های مشابهی را مطرح کرده است. او از رهبران جهان درخواست کرده که یک آژانس بین‌المللی مشابه آژانس انرژی اتمی تشکیل دهند تا مدل‌های قدرتمند هوش مصنوعی را تحت نظارت و بررسی قرار دهند. آلتمن در این‌باره در پادکستی گفت:

«فکر می‌کنم در آینده‌ای نه‌چندان دور، سیستم‌های هوش مصنوعی می‌توانند آسیب‌های جهانی قابل‌توجهی ایجاد کنند. ما درباره دهه‌های آینده صحبت نمی‌کنیم؛ این تهدید می‌تواند بسیار نزدیک باشد.»

 

این پیشنهاد نشان‌دهنده نیاز فوری به چارچوب‌های نظارتی و همکاری جهانی برای مدیریت خطرات احتمالی هوش مصنوعی است؛ فناوری‌ای که به سرعت در حال تغییر نظم جهانی است.

 

 

سرمایه‌گذاری عظیم در هوش مصنوعی

گزارش اخیر گلدمن ساکس پیش‌بینی کرده است که سرمایه‌گذاری جهانی در حوزه هوش مصنوعی تا سال ۲۰۲۵ به ۲۰۰ میلیارد دلار خواهد رسید. در این میان، ایالات متحده و چین به‌عنوان دو قدرت اصلی در زمینه توسعه هوش مصنوعی، به‌ویژه در زمینه‌های نظامی-تسلیحاتی، پیشتاز هستند. این سرمایه‌گذاری‌ها نه تنها نشان از رقابت سنگین این کشور‌ها دارد، بلکه به نگرانی‌های موجود درباره استفاده‌های نظامی از هوش مصنوعی نیز دامن می‌زند.

 

چالش جهانی؛ هوش مصنوعی و امنیت بشر

هوش مصنوعی به همان اندازه که در زمینه‌هایی مانند پزشکی، صنایع و رفاه اجتماعی نقش مثبت ایفا می‌کند، می‌تواند در زمینه‌های نظامی و کنترل قدرت به تهدیدی جدی تبدیل شود. نگرانی‌های مطرح‌شده توسط هینتون و آلتمن نشان می‌دهد که کشور‌ها باید با همکاری جهانی، از یک بحران بالقوه جلوگیری کنند. تشکیل یک نهاد بین‌المللی نظارتی و وضع قوانین جهانی برای توسعه و استفاده از هوش مصنوعی می‌تواند گامی مؤثر در مسیر کاهش این خطرات باشد.

 

پیشرفت‌های شگرف هوش مصنوعی، فرصت‌ها و تهدید‌های بزرگی را برای بشریت به ارمغان آورده است. درحالی‌که رقابت بر سر توسعه فناوری‌های نظامی مبتنی بر هوش مصنوعی میان کشور‌های بزرگ مانند آمریکا و چین شدت گرفته، دانشمندانی همچون جفری هینتون هشدار می‌دهند که این فناوری ممکن است روزی از کنترل خارج شود و زندگی بشر را تهدید کند. همکاری بین‌المللی و تشکیل نهاد‌های نظارتی می‌تواند راهی برای کنترل این فناوری و استفاده صحیح از آن باشد؛ در غیر این صورت، خطرات بالقوه آن می‌تواند سرنوشت بشر را تغییر دهد.

آیا این خبر مفید بود؟
بر اساس رای ۰ نفر از بازدیدکنندگان
جهت مشاهده نظرات دیگران اینجا کلیک کنید
copied

  • اخبار داغ
  • پربحث‌ترین ها
  • اخبار روز
  • پربیننده ترین