Web Analytics Made Easy - Statcounter

به گزارش جام جم آنلاین به نقل از زومیت، در قسمت قبلی این مقاله درباره هوش مصنوعی و بحث های مربوط به آن، مطالبی گفته شد؛ همچنین در مورد نیاز نیروهای نظامی به ربات ها نکاتی گفته شد، در ادامه به قسمت دوم و پایانی این مقاله می پردازیم.   بحران‌های احتمالی آینده
سلاح‌های کاملا خودکار، کشتن انسان‌ها را آسان‌تر و ارزان‌تر از همیشه می‌کنند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

چالشی که در ظاهر هم بسیار خطرناک به‌نظر می‌رسد. به‌علاوه مخالفان سلا‌ح‌های خودکار اعتقاد دارند احتمالا عواقب دردناک‌تری در انتظار انسان‌ها خواهد بود. 
اگر توسعه‌ی سلاح‌های LAWS ادامه پیدا کند، سلاح‌‌ها ارزان‌تر از همیشه خواهند شد. همین امروز هم افراد عادی علاقه‌مند می‌توانند با هزینه‌ای پایین پهپاد بسازند. با توسعه‌ی فناوری هم قیمت‌ها روز‌به‌روز بیشتر کاهش می‌یابند. به‌علاوه وقتی ربات‌ها در نبردهای جنگی استفاده شوند، احتمال تصاحب و بهره‌برداری از آن‌ها توسط همگان وجود دارد. درواقع نبردها به محلی برای توسعه و گسترش فناوری ساخت پهپادهای قاتل ارزان بدل خواهند شد.
سلاح‌های خودکار مرگ‌بار می‌توانند در کاربردهای بسیار وحشتناکی همچون پاک‌سازی نژادی یا قتل عام دسته‌ای از انسان‌ها استفاده شوند. آریل کان مدیر ارتباطات مؤسسه‌ی تحقیقات آینده‌ی زندگی (Future of Life Institute) اعتقاد دارد سلاح‌های آینده را می‌توان برای هدف‌گیری دسته‌ای خاص از انسان‌ها برنامه‌ریزی کرد. او چنین رویکردی را یکی از ساده‌ترین کاربردهای فناوری ربات‌های خودکار می‌داند.
پس از بررسی‌های بالا، به موضوع و پیامدی گسترده‌تر در توسعه‌ی هوش مصنوعی می‌رسیم. درحال‌حاضر می‌توان آمریکا را پیشرفته‌ترین کشور در حوزه‌ی یادگیری ماشین و هوش مصنوعی دانست. احتمالا ارتش آمریکا هم هیچ تضمینی بر استفاده نکردن از این مزیت در میدان نبرد ندارد. والش اعتقاد دارد ارتش آمریکا می‌خواهد برتری فناوری خود را دربرابر رقبا حفظ کند.  
استدلال آمریکایی‌ها بر حفظ برتری فناورانه نسبت به رقبای سیاسی، ترسناک‌ترین سناریوهای احتمالی را برای آینده‌ی هوش مصنوعی ایجاد می‌کنند. سناریوهایی که از نظر کارشناسان هوش مصنوعی واقعا نگران‌کننده هستند. بسیاری از محققان اعتقاد دارند سیستم‌های پیشرفته‌ی هوش مصنوعی ظرفیت‌های بسیاری برای فاجعه‌های مرگ‌بار دارند. از نگاه آن‌ها پیشرفت چنین فناوری‌هایی می‌تواند به آینده‌ای فاجعه‌بار منجر شود که شاید شانسی برای جبران آن نداشته باشیم. به‌علاوه اگر مسیر را کاملا اشتباه برویم، شاید درنهایت به نابودی کل بشریت ختم شود.
 
برای جلوگیری از آینده‌ای که در بالا متصور شدیم، توسعه‌ی هوش مصنوعی باید در شرایطی باز، با همکاری همگان و با دقت بالا انجام شود. محققان نباید تحقیقات حیاتی هوش مصنوعی را در خفا و شرایطی انجام دهند که هیچ‌کس توانایی شناسایی اشتباهات آن‌ها را نداشته باشد. اگر تحقیقات هوش مصنوعی با مشارکت و نظر همگان انجام شود، می‌توان با احتمال بالایی مشکلات حیاتی توسعه‌ی هوش مصنوعی پیشرفته را شناسایی کرد.
علاوه‌بر مخفی نبودن تحقیقات هوش مصنوعی، باید از عجله در آن هم خودداری کرد. کان در بخش دیگری از مصاحبه می‌گوید:
ما می‌خواهیم جلوی یک مسابقه و نبرد در حوزه‌ی هوش مصنوعی را بگیریم. هیچ‌کس از نبرد در حوزه‌ی هوش مصنوعی خشنود نمی‌شود، اما به این معنی نیست که چنین نبردی رخ نمی‌دهد. به‌علاوه نبرد بر سر توسعه‌ی سلاح‌ها با این فناوری، می‌تواند به نبردی تمام‌عیار منجر شود.

به‌هرحال اگر آمریکا یا هر کشور پیشرفته‌ی دیگر از برتری‌های فناورانه‌ی خود در توسعه‌ی سلاح‌های مبتنی بر هوش مصنوعی استفاده کند، دیگر کشورها هم تحقیقات خود را در این حوزه افزایش می‌دهند. در چنین شرایطی اشتباهات طراحی و محاسباتی در حوزه‌ی هوش مصنوعی، بیشتر و مرگ‌بارتر خواهند بود.
تلاش‌های مردمی در مقابل ربات‌های قاتل
محققان در مقابله با ربات‌های قاتل به ممنوعیت فناوری امیدوار هستند. ممنوعیتی که قبلا هم در استفاده از سلاح‌های بیولوژیکی وضع شد و موفق بود. آن ممنوعیت در سال ۱۹۷۲ و در اوج پیشرفت‌ تحقیق پیرامون سلاح‌های زیستی تصویب شد.  
فاکتورهای متعددی منجر به موفقیت ممنوعیت سلاح‌‌های زیستی شد. در وهله‌ی اول دولت‌ها با استفاده از چنین سلاح‌هایی، مزیت زیادی به‌دست نمی‌آوردند. به‌علاوه در موضوع سلاح‌های زیستی، دسترسی به آن‌ها با قیمت پایین ممکن بود. درواقع سلاحی با تأثیر کشتار جمعی به‌راحتی در اختیار دولت‌ها قرار می‌گرفت که از سوی آن‌ها خوشایند به نظر نمی‌رسید.
مخالفان توسعه‌ی سلاح‌های مرگ‌بار خودکار تلاش می‌کنند تا روندی مشابه سلاح‌‌های زیستی را برای آن‌ها ایجاد کنند. راسل در بخشی از مصاحبه می‌گوید:
از نظر من، اعتقادات و نظرات افرادی مانند ما اهمیتی ندارد. چرا که چنیی نظراتی منجر به هیچ اقدامی از سوی دولت‌ها نمی‌شود. ما ۷۰ سال تلاش کردیم تا سلاح‌های اتمی داشته باشیم و سپس برای جلوگیری از تصاحب آن‌ها توسط افراد خطاکار، تلاش کردیم. اکنون سلاح‌های LAWS هم می‌توانند به همان اندازه مرگ‌بار باشند. به‌علاوه آن‌ها ارزان‌تر هستند و توسعه‌ی چنین سلاح‌هایی نیز آسان‌تر خواهد بود.

در مقابل تلاش‌های همه‌ی سازمان‌های مردم‌نهاد و مخالفان توسعه‌ی سلاح‌های مرگ‌بار، سازمان ملل حرکتی آهسته دارد. آن‌ها حتی برای مذاکره پیرامون موضوع سلاح‌های مرگ‌بار خودکار هم تعلل می‌کنند. دو فاکتور مهم برای حرکت کند سازمان ملل تصور می‌شود: اول، حرکت سازمان ملل برای تصویب قوانین بین‌المللی همیشه آهسته بوده است و در مقابل روند توسعه‌ی فناوری خصوصا در حوزه‌ی سلاح‌های مرگ‌بار خودکار بسیار سریع پیش می‌رود. دلیل دوم و مهم‌تر اینکه تلاش برای تصویب قوانین مذکور قطعا مخالفتی جدی از سوی برخی دولت‌ها را به‌همراه دارد.
 
آمریکا درکنار رژیم اشغالگر قدس، کره‌جنوبی، بریتانیا و استرالیا تاکنون مخالفت‌هایی جدی با طرح احتمالی سازمان ملل در زمینه‌ی مخالفت با سلاح‌های خودکار مرگ‌بار داشته‌اند. آمریکایی‌ها در توجیه مخالفت‌های خود استدلال‌های قابل‌توجهی دارند. آن‌ها ادعا می‌کنند که LAWS برخی اوقات مزایای انسانی دارد و درصورت تصویب قوانین ممنوعیت در حال حاضر، ظرفیت‌ها ناشناس خواهند ماند. به‌هرحال وزارت دفاع این کشور هم ادعا می‌کند که همیشه نظارتی انسانی روی عملکرد سیستم‌‌های هوش مصنوعی وجود خواهد داشت.
مخالفان توسعه‌ی سلاح‌های LAWS اعتقاد دارند بررسی از سوی سازمان ملل متحد باید در سریع‌ترین زمان ممکن انجام شود. به‌عنوان مثال یاورسکی استدلال می‌کند:
نمی‌‌توان انتظار داشت که عملکرد LAWS به کاربردهای نظامی محدود شود. درواقع با توسعه‌ی فناوری، افراد بسیار زیادی خصوصا سازمان‌های غیردولتی و غیر مسئول از آن استفاده خواهند کرد.  

در تکمیل استدلال بالا باید بگوییم که جلوگیری از توسعه و استفاده از یک فناوری، وقتی افراد زیادی از آن استفاده نمی‌کنند آسان‌تر خواهد بود. به‌بیان‌دیگر وقتی LAWS در اختیار همه قرار گیرد، دیگر نمی‌‌توان راهکاری برای ممنوعیت استفاده‌های ناصحیح آن پیاده‌سازی کرد. به‌همین دلیل مخالفان از سال‌ها پیش تلاش می‌کنند تا بررسی LAWS را به صحن رسمی سازمان ملل برسانند.
در بررسی استفاده از سلاح‌‌های خودکار موارد متعددی باید مطالعه شود. به‌عنوان مثال اگر بپرسیم چه چیزی یک سیستم را کاملا خودکار می‌کند، با دوراهی جالبی روبه‌رو می‌شویم. فرض کنید کره‌جنوبی در مرز خود با کره‌ی شمالی سیستم‌های اسلحه‌ای نصب کند که به‌صورت خودکار افراد تأییدنشده را هدف قرار دهند (سلاح مرگ‌بار خودکار). البته سلاح این‌چنینی شبیه به مین هم عمل می‌کند که اکنون مخالفتی با نصب آن در مرزها وجود ندارد. حتی راسل اعتقاد دارد چنین اسلحه‌ای در تشخیص نیروهای متخاصم بهتر از مین عمل می‌کند و شاید استفاده از آن مفید هم باشد.
 
در مثالی دیگر می‌توان مهمات با عملکرد آهسته را بررسی کرد. آن‌ها به فضا پرتاب می‌شوند و در محیطی دایره‌ای و گسترده پرواز می‌کنند. به محض اینکه رادار هدف آن‌ها را شناسایی کند، به همان رادار حمله می‌کنند. چنین حمله‌هایی بدون دخالت انسان انجام می‌شوند. درنتیجه آن‌ها هم سلاح‌های خودکار هستند، اما به‌جای انسان‌ها، رادارها را هدف قرار می‌دهند.
چالش‌های بالا درکنار موارد متعدد دیگر باید برای بهینه‌سازی ممنوعیت احتمالی از سوی سازمان ملل متحد، بررسی و حل شوند. دراین‌میان آمریکا به‌عنوان پیش‌گام هوش مصنوعی مخالفت‌های جدی با بررسی‌های این‌چنینی دارد. درنتیجه کشوری که می‌تواند بهترین بررسی‌های علمی را روی چالش‌ها انجام دهد، از آن سر باز می‌زند.
روش دیگری از مخالفت با سلاح‌های خودکار وجود دارد که احتمال استفاده از آن‌ها در صنایع نظامی را کمتر می‌کند. مخالفت دانشمندان هوش مصنوعی از شرکت در پروژه‌هایی با کاربردهای نظامی، می‌تواند توسعه‌ی سلاح‌های مبتنی بر هوش مصنوعی را با چالش مواجه کند. درحال حاضر اکثر دانشمندان بزرگ هوش مصنوعی در سیلیکون‌ولی شاغل هستند و برای ارتش آمریکا کار نمی‌کنند. همکاری سیلیکون‌ولی با ارتش هم همیشه با بازخوردهای شدید همراه بوده است. به‌عنوان مثال کارمندان گوگل وقتی متوجه پروژه‌ی مشترک شرکت با ارتش تحت عنوان Maven شدند، اعتراضی سراسری ترتیب دادند که منجر به عدم تمدید پروژه شد. کارمندان مایکروسافت همچنین رویکردی در گذشته داشته‌اند.  
در نتیجه‌ی رخدادهای بالا می‌توان پیش‌بینی کرد که کارمندان دنیای فناوری توانایی ایجاد تأخیر در روند توسعه‌ی سلاح‌ها را دارند. آن‌ها می‌توانند با شرکت نکردن در پروژه‌های مذکور، توسعه را به تعویق بیندازند. برنامه‌های گروهی متعددی هم برای ایجاد چنین حسی بین متخصصان و کارمندان حوزه‌ی هوش مصنوعی ایجاد شده است.
چقدر باید نگران باشیم؟
ربات‌های قاتل خطرات بسیار زیادی به‌همراه دارند. آن‌ها می‌توانند قتل‌عام و کشتار گسترده را به فرایندی آسان برای دیکتاتورها و سازمان‌های غیرمسئول تبدیل کنند. درواقع گروهی که چنین ابزارهایی در دسترس داشته باشد می‌تواند ادعای شکست‌ناپذیری کند. چنین فرضیه‌ای به خودی خودی ترسناک است.
وضعیتی کنونی سلاح‌های مرگ‌بار خودکار نشانه‌ای از روند بسیار گسترده‌تر هستند. هوش مصنوعی امکاناتی را برای مردم فراهم می‌کند که قبلا وجود نداشتند. سرعت ایجاد فرصت‌ها هم به‌گونه‌ای انجام می‌شود که ظرفیت‌های ما بسیار سریع‌تر از تفکر، سرعت واکنش و سیاست‌های عمومی رشد می‌کنند. با رشد هوش مصنوعی می‌توان انتظار داشت که این روند، بی‌ثباتی بیشتری را هم تجربه کند.
استفاده از الگوریتم‌ها در هر زمینه‌ای که باشد، تهدیدهای بالقوه‌ای را به‌همراه دارد. چه آن‌ها ر ادر ربات‌های قاتل استفاده کنیم، یا حتی برای شناسایی اخبار دروغ به کار ببریم، جنبه‌های حیاتی از جامعه را در اختیار این موجودات بی‌جان قرار داده‌ایم. درواقع شاید آن‌ها به‌خوبی جنبه‌های مورد نظر ما را درک نکنند و در مسیر اهدافی بهینه‌سازی شوند، که مشابه با اهداف مورد نظر ما نباشد.
سیستم‌های پیشرفته‌ی هوش مصنوعی هنوز به زندگی ما راه نیافته‌اند. البته آن‌ها هر روز به ما نزدیک و نزدیک‌تر می‌شوند. اکنون زمان آن است که برای رویارویی با آن‌ها بیش از همیشه آماده شویم. اکنون همه می‌دانیم که بهترین زمان برای تصویب سیاست‌های کاربردی و تفاهم‌های بین‌المللی زمانی خواهد بود که سناریوهای علمی تخیلی و ترسناک گفته شده در بالا، هنوز اتفاق نیفتاده باشند.

منبع: جام جم آنلاین

کلیدواژه: ربات سلاح جنگ قاتل نبرد هوش مصنوعی ی سلاح های مرگ بار حوزه ی هوش مصنوعی توسعه ی سلاح سلاح های خودکار توسعه ی سلاح ها ربات های قاتل سازمان ملل حوزه ی ی سازمان انسان ها ی فناوری ربات ها دولت ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت jamejamonline.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «جام جم آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۹۷۱۹۷۸۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

قتل ۳ نفر از اعضای یک خانواده در مریوان/ قاتل دستگیر شد

فرمانده انتظامی استان کردستان از دستگیری قاتل سه نفر از اعضای یک خانواده در عملیات ضربتی پلیس در شهر مریوان خبر داد.

به گزارش خبرگزاری ایمنا از کردستان و به نقل از پایگاه خبری پلیس، سردار علی آزادی اظهار کرد: در پی اعلام مرکز فوریت‌های پلیسی ۱۱۰ مبنی بر قتل سه نفر از اعضای یک خانواده با سلاح گرم، پدر ۴۳ ساله، مادر ۳۸ ساله و دختر ۱۲ ساله در مریوان، بلافاصله بررسی موضوع و دستگیری عامل یا عاملان احتمالی قتل به صورت ویژه در دستور کار مأموران پلیس آگاهی مریوان قرار گرفت.

وی افزود: کارآگاهان پلیس آگاهی مریوان با اشراف اطلاعاتی قاتل را شناسایی و پس از هماهنگی با مراجع قضائی در عملیاتی ضربتی دستگیر کردند.

فرمانده انتظامی استان کردستان خاطرنشان کرد: در تحقیقات به عمل آمده از متهم که فرزند خانواده مقتول بود، وی به جرم خود اعتراف کرد و از او دو قبضه سلاح جنگی کشف شد.

سردار آزادی با بیان اینکه قاتل علت و انگیزه خود را از ارتکاب جرم اختلافات خانوادگی اعلام کرد، افزود: متهم به همراه پرونده در اختیار مراجع قضائی قرار گرفت.

کد خبر 751699

دیگر خبرها

  • دستگیری قاتل در عملیات ضربتی پلیس
  • دستگیری قاتلی که ۳ عضو خانواده‌اش را در مریوان کُشت!
  • دستگیری ‌قاتل‌ ۳ عضو یک خانواده در مریوان
  • دستگیری قاتل ۳ عضو یک خانواده در مریوان
  • قتل ۳ نفر از اعضای یک خانواده در مریوان/ قاتل دستگیر شد
  • هوش مصنوعی ربات‌ها را بهتر از انسان‌ آموزش می‌دهد
  • هوش مصنوعی ناشناخته‌های کیهان را کشف می‌کند
  • وقتی هوش طبیعی حشرات به کمک ربات‌ها می‌آید
  • تجهیز ربات‌ها به «هوش طبیعی» ممکن شد
  • این فناوری زمین را از گزند سیارک ها حفظ می کند