دستور مرگ با الگوریتم: دوران رباتهای قاتل بیش از همیشه به ما نزدیک است؛ قسمت پایانی+عکس
تاریخ انتشار: ۳۰ مهر ۱۳۹۹ | کد خبر: ۲۹۷۱۹۷۸۷
به گزارش جام جم آنلاین به نقل از زومیت، در قسمت قبلی این مقاله درباره هوش مصنوعی و بحث های مربوط به آن، مطالبی گفته شد؛ همچنین در مورد نیاز نیروهای نظامی به ربات ها نکاتی گفته شد، در ادامه به قسمت دوم و پایانی این مقاله می پردازیم. بحرانهای احتمالی آینده
سلاحهای کاملا خودکار، کشتن انسانها را آسانتر و ارزانتر از همیشه میکنند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
اگر توسعهی سلاحهای LAWS ادامه پیدا کند، سلاحها ارزانتر از همیشه خواهند شد. همین امروز هم افراد عادی علاقهمند میتوانند با هزینهای پایین پهپاد بسازند. با توسعهی فناوری هم قیمتها روزبهروز بیشتر کاهش مییابند. بهعلاوه وقتی رباتها در نبردهای جنگی استفاده شوند، احتمال تصاحب و بهرهبرداری از آنها توسط همگان وجود دارد. درواقع نبردها به محلی برای توسعه و گسترش فناوری ساخت پهپادهای قاتل ارزان بدل خواهند شد.
سلاحهای خودکار مرگبار میتوانند در کاربردهای بسیار وحشتناکی همچون پاکسازی نژادی یا قتل عام دستهای از انسانها استفاده شوند. آریل کان مدیر ارتباطات مؤسسهی تحقیقات آیندهی زندگی (Future of Life Institute) اعتقاد دارد سلاحهای آینده را میتوان برای هدفگیری دستهای خاص از انسانها برنامهریزی کرد. او چنین رویکردی را یکی از سادهترین کاربردهای فناوری رباتهای خودکار میداند.
پس از بررسیهای بالا، به موضوع و پیامدی گستردهتر در توسعهی هوش مصنوعی میرسیم. درحالحاضر میتوان آمریکا را پیشرفتهترین کشور در حوزهی یادگیری ماشین و هوش مصنوعی دانست. احتمالا ارتش آمریکا هم هیچ تضمینی بر استفاده نکردن از این مزیت در میدان نبرد ندارد. والش اعتقاد دارد ارتش آمریکا میخواهد برتری فناوری خود را دربرابر رقبا حفظ کند.
استدلال آمریکاییها بر حفظ برتری فناورانه نسبت به رقبای سیاسی، ترسناکترین سناریوهای احتمالی را برای آیندهی هوش مصنوعی ایجاد میکنند. سناریوهایی که از نظر کارشناسان هوش مصنوعی واقعا نگرانکننده هستند. بسیاری از محققان اعتقاد دارند سیستمهای پیشرفتهی هوش مصنوعی ظرفیتهای بسیاری برای فاجعههای مرگبار دارند. از نگاه آنها پیشرفت چنین فناوریهایی میتواند به آیندهای فاجعهبار منجر شود که شاید شانسی برای جبران آن نداشته باشیم. بهعلاوه اگر مسیر را کاملا اشتباه برویم، شاید درنهایت به نابودی کل بشریت ختم شود.
برای جلوگیری از آیندهای که در بالا متصور شدیم، توسعهی هوش مصنوعی باید در شرایطی باز، با همکاری همگان و با دقت بالا انجام شود. محققان نباید تحقیقات حیاتی هوش مصنوعی را در خفا و شرایطی انجام دهند که هیچکس توانایی شناسایی اشتباهات آنها را نداشته باشد. اگر تحقیقات هوش مصنوعی با مشارکت و نظر همگان انجام شود، میتوان با احتمال بالایی مشکلات حیاتی توسعهی هوش مصنوعی پیشرفته را شناسایی کرد.
علاوهبر مخفی نبودن تحقیقات هوش مصنوعی، باید از عجله در آن هم خودداری کرد. کان در بخش دیگری از مصاحبه میگوید:
ما میخواهیم جلوی یک مسابقه و نبرد در حوزهی هوش مصنوعی را بگیریم. هیچکس از نبرد در حوزهی هوش مصنوعی خشنود نمیشود، اما به این معنی نیست که چنین نبردی رخ نمیدهد. بهعلاوه نبرد بر سر توسعهی سلاحها با این فناوری، میتواند به نبردی تمامعیار منجر شود.
بههرحال اگر آمریکا یا هر کشور پیشرفتهی دیگر از برتریهای فناورانهی خود در توسعهی سلاحهای مبتنی بر هوش مصنوعی استفاده کند، دیگر کشورها هم تحقیقات خود را در این حوزه افزایش میدهند. در چنین شرایطی اشتباهات طراحی و محاسباتی در حوزهی هوش مصنوعی، بیشتر و مرگبارتر خواهند بود.
تلاشهای مردمی در مقابل رباتهای قاتل
محققان در مقابله با رباتهای قاتل به ممنوعیت فناوری امیدوار هستند. ممنوعیتی که قبلا هم در استفاده از سلاحهای بیولوژیکی وضع شد و موفق بود. آن ممنوعیت در سال ۱۹۷۲ و در اوج پیشرفت تحقیق پیرامون سلاحهای زیستی تصویب شد.
فاکتورهای متعددی منجر به موفقیت ممنوعیت سلاحهای زیستی شد. در وهلهی اول دولتها با استفاده از چنین سلاحهایی، مزیت زیادی بهدست نمیآوردند. بهعلاوه در موضوع سلاحهای زیستی، دسترسی به آنها با قیمت پایین ممکن بود. درواقع سلاحی با تأثیر کشتار جمعی بهراحتی در اختیار دولتها قرار میگرفت که از سوی آنها خوشایند به نظر نمیرسید.
مخالفان توسعهی سلاحهای مرگبار خودکار تلاش میکنند تا روندی مشابه سلاحهای زیستی را برای آنها ایجاد کنند. راسل در بخشی از مصاحبه میگوید:
از نظر من، اعتقادات و نظرات افرادی مانند ما اهمیتی ندارد. چرا که چنیی نظراتی منجر به هیچ اقدامی از سوی دولتها نمیشود. ما ۷۰ سال تلاش کردیم تا سلاحهای اتمی داشته باشیم و سپس برای جلوگیری از تصاحب آنها توسط افراد خطاکار، تلاش کردیم. اکنون سلاحهای LAWS هم میتوانند به همان اندازه مرگبار باشند. بهعلاوه آنها ارزانتر هستند و توسعهی چنین سلاحهایی نیز آسانتر خواهد بود.
در مقابل تلاشهای همهی سازمانهای مردمنهاد و مخالفان توسعهی سلاحهای مرگبار، سازمان ملل حرکتی آهسته دارد. آنها حتی برای مذاکره پیرامون موضوع سلاحهای مرگبار خودکار هم تعلل میکنند. دو فاکتور مهم برای حرکت کند سازمان ملل تصور میشود: اول، حرکت سازمان ملل برای تصویب قوانین بینالمللی همیشه آهسته بوده است و در مقابل روند توسعهی فناوری خصوصا در حوزهی سلاحهای مرگبار خودکار بسیار سریع پیش میرود. دلیل دوم و مهمتر اینکه تلاش برای تصویب قوانین مذکور قطعا مخالفتی جدی از سوی برخی دولتها را بههمراه دارد.
آمریکا درکنار رژیم اشغالگر قدس، کرهجنوبی، بریتانیا و استرالیا تاکنون مخالفتهایی جدی با طرح احتمالی سازمان ملل در زمینهی مخالفت با سلاحهای خودکار مرگبار داشتهاند. آمریکاییها در توجیه مخالفتهای خود استدلالهای قابلتوجهی دارند. آنها ادعا میکنند که LAWS برخی اوقات مزایای انسانی دارد و درصورت تصویب قوانین ممنوعیت در حال حاضر، ظرفیتها ناشناس خواهند ماند. بههرحال وزارت دفاع این کشور هم ادعا میکند که همیشه نظارتی انسانی روی عملکرد سیستمهای هوش مصنوعی وجود خواهد داشت.
مخالفان توسعهی سلاحهای LAWS اعتقاد دارند بررسی از سوی سازمان ملل متحد باید در سریعترین زمان ممکن انجام شود. بهعنوان مثال یاورسکی استدلال میکند:
نمیتوان انتظار داشت که عملکرد LAWS به کاربردهای نظامی محدود شود. درواقع با توسعهی فناوری، افراد بسیار زیادی خصوصا سازمانهای غیردولتی و غیر مسئول از آن استفاده خواهند کرد.
در تکمیل استدلال بالا باید بگوییم که جلوگیری از توسعه و استفاده از یک فناوری، وقتی افراد زیادی از آن استفاده نمیکنند آسانتر خواهد بود. بهبیاندیگر وقتی LAWS در اختیار همه قرار گیرد، دیگر نمیتوان راهکاری برای ممنوعیت استفادههای ناصحیح آن پیادهسازی کرد. بههمین دلیل مخالفان از سالها پیش تلاش میکنند تا بررسی LAWS را به صحن رسمی سازمان ملل برسانند.
در بررسی استفاده از سلاحهای خودکار موارد متعددی باید مطالعه شود. بهعنوان مثال اگر بپرسیم چه چیزی یک سیستم را کاملا خودکار میکند، با دوراهی جالبی روبهرو میشویم. فرض کنید کرهجنوبی در مرز خود با کرهی شمالی سیستمهای اسلحهای نصب کند که بهصورت خودکار افراد تأییدنشده را هدف قرار دهند (سلاح مرگبار خودکار). البته سلاح اینچنینی شبیه به مین هم عمل میکند که اکنون مخالفتی با نصب آن در مرزها وجود ندارد. حتی راسل اعتقاد دارد چنین اسلحهای در تشخیص نیروهای متخاصم بهتر از مین عمل میکند و شاید استفاده از آن مفید هم باشد.
در مثالی دیگر میتوان مهمات با عملکرد آهسته را بررسی کرد. آنها به فضا پرتاب میشوند و در محیطی دایرهای و گسترده پرواز میکنند. به محض اینکه رادار هدف آنها را شناسایی کند، به همان رادار حمله میکنند. چنین حملههایی بدون دخالت انسان انجام میشوند. درنتیجه آنها هم سلاحهای خودکار هستند، اما بهجای انسانها، رادارها را هدف قرار میدهند.
چالشهای بالا درکنار موارد متعدد دیگر باید برای بهینهسازی ممنوعیت احتمالی از سوی سازمان ملل متحد، بررسی و حل شوند. دراینمیان آمریکا بهعنوان پیشگام هوش مصنوعی مخالفتهای جدی با بررسیهای اینچنینی دارد. درنتیجه کشوری که میتواند بهترین بررسیهای علمی را روی چالشها انجام دهد، از آن سر باز میزند.
روش دیگری از مخالفت با سلاحهای خودکار وجود دارد که احتمال استفاده از آنها در صنایع نظامی را کمتر میکند. مخالفت دانشمندان هوش مصنوعی از شرکت در پروژههایی با کاربردهای نظامی، میتواند توسعهی سلاحهای مبتنی بر هوش مصنوعی را با چالش مواجه کند. درحال حاضر اکثر دانشمندان بزرگ هوش مصنوعی در سیلیکونولی شاغل هستند و برای ارتش آمریکا کار نمیکنند. همکاری سیلیکونولی با ارتش هم همیشه با بازخوردهای شدید همراه بوده است. بهعنوان مثال کارمندان گوگل وقتی متوجه پروژهی مشترک شرکت با ارتش تحت عنوان Maven شدند، اعتراضی سراسری ترتیب دادند که منجر به عدم تمدید پروژه شد. کارمندان مایکروسافت همچنین رویکردی در گذشته داشتهاند.
در نتیجهی رخدادهای بالا میتوان پیشبینی کرد که کارمندان دنیای فناوری توانایی ایجاد تأخیر در روند توسعهی سلاحها را دارند. آنها میتوانند با شرکت نکردن در پروژههای مذکور، توسعه را به تعویق بیندازند. برنامههای گروهی متعددی هم برای ایجاد چنین حسی بین متخصصان و کارمندان حوزهی هوش مصنوعی ایجاد شده است.
چقدر باید نگران باشیم؟
رباتهای قاتل خطرات بسیار زیادی بههمراه دارند. آنها میتوانند قتلعام و کشتار گسترده را به فرایندی آسان برای دیکتاتورها و سازمانهای غیرمسئول تبدیل کنند. درواقع گروهی که چنین ابزارهایی در دسترس داشته باشد میتواند ادعای شکستناپذیری کند. چنین فرضیهای به خودی خودی ترسناک است.
وضعیتی کنونی سلاحهای مرگبار خودکار نشانهای از روند بسیار گستردهتر هستند. هوش مصنوعی امکاناتی را برای مردم فراهم میکند که قبلا وجود نداشتند. سرعت ایجاد فرصتها هم بهگونهای انجام میشود که ظرفیتهای ما بسیار سریعتر از تفکر، سرعت واکنش و سیاستهای عمومی رشد میکنند. با رشد هوش مصنوعی میتوان انتظار داشت که این روند، بیثباتی بیشتری را هم تجربه کند.
استفاده از الگوریتمها در هر زمینهای که باشد، تهدیدهای بالقوهای را بههمراه دارد. چه آنها ر ادر رباتهای قاتل استفاده کنیم، یا حتی برای شناسایی اخبار دروغ به کار ببریم، جنبههای حیاتی از جامعه را در اختیار این موجودات بیجان قرار دادهایم. درواقع شاید آنها بهخوبی جنبههای مورد نظر ما را درک نکنند و در مسیر اهدافی بهینهسازی شوند، که مشابه با اهداف مورد نظر ما نباشد.
سیستمهای پیشرفتهی هوش مصنوعی هنوز به زندگی ما راه نیافتهاند. البته آنها هر روز به ما نزدیک و نزدیکتر میشوند. اکنون زمان آن است که برای رویارویی با آنها بیش از همیشه آماده شویم. اکنون همه میدانیم که بهترین زمان برای تصویب سیاستهای کاربردی و تفاهمهای بینالمللی زمانی خواهد بود که سناریوهای علمی تخیلی و ترسناک گفته شده در بالا، هنوز اتفاق نیفتاده باشند.
منبع: جام جم آنلاین
کلیدواژه: ربات سلاح جنگ قاتل نبرد هوش مصنوعی ی سلاح های مرگ بار حوزه ی هوش مصنوعی توسعه ی سلاح سلاح های خودکار توسعه ی سلاح ها ربات های قاتل سازمان ملل حوزه ی ی سازمان انسان ها ی فناوری ربات ها دولت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت jamejamonline.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «جام جم آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۲۹۷۱۹۷۸۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
قتل ۳ نفر از اعضای یک خانواده در مریوان/ قاتل دستگیر شد
فرمانده انتظامی استان کردستان از دستگیری قاتل سه نفر از اعضای یک خانواده در عملیات ضربتی پلیس در شهر مریوان خبر داد.
به گزارش خبرگزاری ایمنا از کردستان و به نقل از پایگاه خبری پلیس، سردار علی آزادی اظهار کرد: در پی اعلام مرکز فوریتهای پلیسی ۱۱۰ مبنی بر قتل سه نفر از اعضای یک خانواده با سلاح گرم، پدر ۴۳ ساله، مادر ۳۸ ساله و دختر ۱۲ ساله در مریوان، بلافاصله بررسی موضوع و دستگیری عامل یا عاملان احتمالی قتل به صورت ویژه در دستور کار مأموران پلیس آگاهی مریوان قرار گرفت.
وی افزود: کارآگاهان پلیس آگاهی مریوان با اشراف اطلاعاتی قاتل را شناسایی و پس از هماهنگی با مراجع قضائی در عملیاتی ضربتی دستگیر کردند.
فرمانده انتظامی استان کردستان خاطرنشان کرد: در تحقیقات به عمل آمده از متهم که فرزند خانواده مقتول بود، وی به جرم خود اعتراف کرد و از او دو قبضه سلاح جنگی کشف شد.
سردار آزادی با بیان اینکه قاتل علت و انگیزه خود را از ارتکاب جرم اختلافات خانوادگی اعلام کرد، افزود: متهم به همراه پرونده در اختیار مراجع قضائی قرار گرفت.
کد خبر 751699