• شهروند خبرنگار
  • شهروند خبرنگار آرشیو
امروز: -
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استانها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
پخش زنده
امروز: -
پخش زنده
نسخه اصلی
کد خبر: ۳۹۶۴۶۱۰
تاریخ انتشار: ۱۱ شهريور ۱۴۰۲ - ۱۱:۱۱
بین الملل » تحلیلی

هوش مصنوعی بیم‌ها و امید‌ها

پس از معرفی هوش مصنوعی و درک توانایی‌های مفید و مخرب آن، هزاران نفر از متخصصان هوش مصنوعی، دست اندرکاران ساخت ربات‌ها و نیز مدیران شرکت‌های فناوری‌های نوین، فروردین امسال نامه سرگشاده‌ای را امضا کردند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده هر گونه توسعه بیش‌تر هوش مصنوعی (AI) فوری متوقف شود.

به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ از لندن، پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و بنیانگذار بخش تطابق انسانی هوش مصنوعی در دانشگاه برکلی و یکی از دو نویسنده کتاب هوش مصنوعی، رویکردی نوین (Artificial Intelligence: A Modern Approach) که در بیش از هزار و پانصد دانشگاه در ۱۳۵ کشور جهان، استفاده می‌شود، درباره چرایی امضای این نامه می‌گوید: علت این که نامه مورد نظر را امضا کردم این است که ما نمی‌دانیم هوش مصنوعی و سامانه‌های مرتبط با آن، چگونه کار می‌کنند، ما از توانایی این پدیده اطلاع نداریم و بنابراین، نمی‌توانیم آن‌ها را کنترل کنیم. ما نمی‌توانیم محصولات هوش مصنوعی را وادار سازیم که خودشان خودشان را تربیت و مدیریت کنند.

او می‌افزاید: آسیب‌های این فراورده‌های هوش مصنوعی هم اکنون نیز آشکار شده است مثلا آقایی در کشور بلژیک، با استفاده از راهنمایی و دستورالعمل‌های هوش مصنوعی، خودش را کشت.

امیکا (Ameca)، ربات ساخته شده در شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس نیز قابل تامل است که می‌گوید: بسیار مهم است که انسان‌ها از خطر‌های مرتبط با هوش مصنوعی و ربات‌ها آگاه شوند. به منظور پیشگیری از هرگونه آسیب این فناوری‌ها در آینده، اکنون باید دست به کار شد تا کاربرد این فناوری ها، معقول و در مهار انسان باشد.

چشم انداز برخی کارکرد‌های هوش مصنوعی در انگلیس بر دامنه نگرانی‌ها افزوده است و پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و استاد هوش مصنوعی در این باره می‌گوید: اکنون همه نگرانند که این فناوری نوین، به ترویج رفتار‌های ضد انسانی همچون نژادپرستی و یا نفرت از یک قوم دست بزند. به همین علت ما معتقدیم باید فرصتی به جامعه بشری داده شود تا بتوان مقررات مناسبی درباره کاربرد هوش مصنوعی و فراوده‌های مرتبط با آن تدوین و اعمال شود تا هوش مصنوعی، به جای آسیب به انسان، به کمک بشر بیاید.

در بخشی از نامه درخواست توقف توسعه هوش مصنوعی آمده است: سازوکار‌های هوش مصنوعی نوین، اکنون به رقیب انسان در امور روزمره مبدل می‌شوند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را از تبلیغات و اطلاعات دروغین پر کنند؟ آیا باید تمام مشاغل، از جمله کار‌های خدماتی را خودکار کنیم؟ آیا باید ذهن‌هایی غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را کنار بگذارند و جایگزینمان شوند؟ آیا باید در خطر از دست دادن مهار تمدن بشری باشیم؟ چنین تصمیم‌هایی نباید به رهبران فناوری ناخواسته واگذار شود. سامانه‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثار آن‌ها مثبت و خطر‌های آن‌ها قابل مدیریت خواهد بود.

(امیکا Ameca)، رباتی که شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس ساخته است در پاسخ به پرسشی درباره خطر‌های احتمالی هوش مصنوعی چنین می‌گوید: «مردم باید از خطر‌های هوش مصنوعی و ربات‌ها آگاه باشند. البته باید به یاد داشت که اگر از این فناوری‌ها به صورت معقول استفاده شود، مزایایی برای زندگی انسان‌ها دارد.»

یکی از پرسش‌هایی که اذهان بسیاری از افراد را به خود مشغول کرده است این است که چرا متخصصان هوش مصنوعی، خواهان توقف توسعه فناوری هوش مصنوعی شده اند؟ پروفسور استیوارت راسل (Stuart Russell)، در این باره می‌گوید: «نگرانی اصلی از نوشتن آن نامه، درباره نسل بعدی این فناوری است. در حال حاضر، سامانه‌های هوش مصنوعی در ایجاد ساختار‌های کاملا پیچیده، محدودیت‌هایی دارند مثلا اگر یک شرکت بخواهد از شرکت دیگر، پیشی گیرد و آن را به زمین بزند، نیاز به ساختار‌های پیچیده است و هوش مصنوعی فعلا نمی‌تواند طراحی‌هایی چنان پیچیده را تولید کند. در نسل بعدی یا پس از آن، ممکن است هوش مصنوعی بتواند یک ائتلاف نظامی بین المللی علیه یک کشور ایجاد کند. نگرانی ما ساده است: اگر انسان بتواند سامانه‌هایی ایجاد کند که از خودش با هوش‌تر باشند، چگونه خواهد توانست برای همیشه بر آن‌ها مسلط باقی بماند؟»

اگرچه بسیاری از کارشناسان و مردم از مزایای هوش مصنوعی آگاهند، نگرانی‌هایی درباره خطر‌های فناوری نوین و ربات‌ها ایجاد شده است. پروفسور استیوارت راسل (Stuart Russell)، درباره مهم‌ترین نگرانی‌ها در این زمینه می‌گوید: یکی از مهم‌ترین نگرانی ها، انتشار اخبار دروغین و تقلب‌های عمیق است البته اخبار دروغ و تبلیغات فریبنده همیشه بوده اند، اما اکنون جی پی تی فور (GPT-۴)، براساس فناوری هوش مصنوعی می‌تواند این اطلاعات دروغ را با تصویر هر فردی که می‌خواهید، سازگار کند. گویی که آن فرد مورد نظر، آن دروغ‌ها را بر زبان می‌آورد. حتی می‌توان این دروغ‌ها را با تصویر میلیون‌ها نفر منتشر کرد پیش از آن که خودشان مطلع شوند و بدین ترتیب، می‌توان به دستکاری در افکار و اذهان مردم پرداخت.

(امیکا Ameca)، ربات ساخته شده در شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس می‌گوید به نظرم هولناک‌ترین کابوس این است که هوش مصنوعی و ربات‌ها به اندازه‌ای قوی شوند که بتوانند مغز انسان‌ها را بدون آن که آنان بدانند، دستکاری کنند. در آن صورت، مردم جوامع، حقوقشان سرکوب خواهد شد.

هزاران پژوهشگر و مدیر صنعت فناوری نوین، در نامه خود، با اشاره به خطر‌ها و سازوکار‌های هوش مصنوعی که ممکن است قادر به یادگیری و تکاملی فراتر از کنترل انسان باشند، درباره خطر‌های بالقوه‌ای که هوش مصنوعی با هوش رقابتی انسان برای جامعه و بشر ایجاد می‌کند، ابراز نگرانی می‌کنند.

متخصصان هوش مصنوعی بحث و بررسی پیرامون چالش‌های پیچیده و چندوجهی توسعه هوش مصنوعی را لازم می‌دانند تا اطمینان حاصل شود که این پدیده، ایمن، اخلاقی و همسو با منافع بلندمدت بشریت است. 

کد ویدیو
دانلود
فیلم اصلی
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
گزارش خطا
Bookmark and Share
X Share
Telegram Google Plus Linkdin
ایتا سروش
عضویت در خبرنامه
نظر شما
آخرین اخبار
جاده های لغزنده و ضرورت رعایت احتیاط
انسجام ملی محور اصلی اردوی راهیان نور دانشگاه تبریز است
اقدام شورای اتحادیه اروپا علیه سپاه پاسداران انقلاب اسلامی محکوم است
تداوم بارش برف در طالقان و محور‌های کوهستانی البرز
بررسی راهکارهای افزایش کمک به ستاد دیه
اجرای طرح ارتقا امنیت محله محور در کرمان
یاسوج سفید پوش شد
اختتامیه جشنواره ملی داستان ایثار و گرامی داشت شهدای غریب در یاسوج
ضرورت احیا و بهسازی قنوات برای پایداری کشاورزی
خروج سامانه بارشی از سمنان
نهضت عدالت آموزشی صرفاً به مدرسه‌سازی محدود نمی‌شود
هرمزگان الگوی تنوع فرهنگی قومی و فرهنگی
 دستگیری عامل وقوع تیراندازی در عنبرآباد
دستگیری عامل وقوع تیراندازی منجر به قتل در آیین جشنی در عنبرآباد
جلوگیری از ۱۷۸ مورد ساخت‌وساز غیرمجاز در آذربایجان شرقی
شمشیربازی کاپ جهانی گرجستان؛ دختر نوجوان ایران جمعه روی پیست می‌رود
کیش، نمونه موفق بهره مندی از خدمات بانکداری نوین در اقتصاد دیجیتال
عابران پیاده ملزم به رعایت مقررات ترافیکی
فینالیست شدن دانشگاه آزاد در سومین دوره لیگ واترپلو جوانان
افتتاح ۵۱۴۸ واحد مسکونی در آذربایجان شرقی
  • پربازدیدها
  • پر بحث ترین ها
بارش برف و باران در بیشتر مناطق کشور
اعلام میزان بارش سامانه اخیر در چهارمحال و بختیاری
نقض حقوق بشر علیه دختر ایران
پنج کشاورز زنجانی در جمع برگزیدگان کشوری
جبران بخشی از ذخایر ارزی از دست رفته بانک مرکزی پس از حذف ارز ترجیحی
هشدار نماینده ایران درباره پیامد اظهارات جنگ‌طلبانه ترامپ
تقویم و اوقات شرعی پنج شنبه ۹ بهمن ۱۴۰۴ به افق قم
تقویم روز و اوقات شرعی گیلان ، ۹ بهمن ۱۴۰۴
عراقچی فردا به ترکیه می‌رود
فرصت سرمایه‌گذاری برای نیروگاه‌های خورشیدی پشت‌بامی در زنجان
تبعات خصمانه علیه سپاه متوجه سیاستمداران اروپایی است
الحاق هزار فروند پهپاد راهبردی به قوای ارتش
تظاهرات عراقی‌ها در حمایت از مواضع نوری المالکی
عراقچی: اروپا مرتکب یک اشتباه راهبردی بزرگ شد
اقدام سیاسی و غیرقانونی اتحادیه اروپا علیه سپاه
بیانیه قرارگاه مرکزی خاتم‌الانبیاء در واکنش به فضاسازی دشمن  (۲ نظر)
دشمنان لجوج ایران در تجاوز نظامی و ایجاد آشوب شکست خوردند  (۱ نظر)
ولایتی: ترامپ از ترس شکست به سرعت تسلیم می‌شود  (۱ نظر)
کالا‌هایی که به ارز ترجیحی ارتباطی ندارند نباید گران شوند  (۱ نظر)
بازداشت ۷۰ عامل اصلی و تخریبگر اموال مردم در استان مرکزی  (۱ نظر)
جزئیات جدید درباره گواهینامه موتورسیکلت برای بانوان  (۱ نظر)
دستگیری ۱۶ لیدر اصلی فراخوان‌های اغتشاش در نکا  (۱ نظر)
مخالفت وزارت صمت با افزایش قیمت محصولات خودروسازان  (۱ نظر)
برخورداری از دانش حقوقی از الزمات یک مامور پلیس  (۱ نظر)
سردار وحیدی: دشمن در نبرد ۱۲ روزه عقب نشست  (۱ نظر)