ربات

آیا باید از هوش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌مصنوعی بترسیم؟

  • نوشته شده : دبیر خبر
  • 26 ژانویه 2020
  • تعداد نظرات :0

با ورود هوش مصنوعی و دنیای کامپیوتر به دنیای طبیعی انسان‌ها، بسیاری از صاحب‌نظران به انتقاد از قدرت آن پرداختند و برخی دیگر آن را نعمتی بدون نقمت تصور کردند. مقاله زیر نوشته لوچیانو فلوریدی استاد فلسفه و اخلاق دانشگاه آکسفورد که در فلسفیدن منتشر شده، بر آن است تا بررسی دیگری در ابعاد تهدید و فرصت هوش مصنوعی کند.

خلاصه: هوش مصنوعی یکی از زمینه‌های جذاب و در عین حال ترسناک دانش جدید است. در دنیای واقعی روبات‌هایی را می‌بینیم که کار انسان‌ها را ساده‌تر کرده‌اند و کارهای سخت را به عهده گرفته‌اند و در دنیای فیلم‌ها و داستان‌های علمی-تخیلی روبات‌هایی را می‌بینیم که کنترل زندگی بشر را به دست گرفته‌اند و حاکمان جهان شده‌اند. اما آینده چگونه خواهد بود. برخی از فعالان این صنعت مثل بیل گیتس و ایلان ماسک بارها هشدار داده‌اند که پیشرفت بی‌رویه‌ی هوش مصنوعی می‌تواند خطرناک باشد. از سوی دیگر برخی از تحلیل‌گران بر این باورند که هوش مصنوعی، چیزی بیشتر از یک ساخته‌ی انسانی نیست و هیچ‌وقت نمی‌تواند به مرحله‌ای برسد که بتواند مستقل از انسان‌ها به بازتولید خود بپردازد. در این مقاله با بررسی دیدگاه‌های افراطی هر دو طرف، تلاش می‌کنیم این اتاق تاریک را روشن‌تر کنیم. آیا باید به استقبال آینده برویم یا از آن نگران باشیم؟

به نظر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌رسد که ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها هر روز در انجام وظایف انسان‌ها هوشمندانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر و بهینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر عمل می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند اما هنوز دست‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌یابی به  هوش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌مصنوعی واقعی کاملا غیرمحتمل است. چرا؟

تصور کنید وارد یک اتاق تاریک در یک ساختمان ناشناخته شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اید. ممکن است از هیولاهایی که شاید در تاریکی کمین کرده باشند وحشت‌زده شوید و یا این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که چراغ را روشن کنید تا با اسباب و اثاثیه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی اتاق برخورد نکنید. این اتاق تاریک همان آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی هوش مصنوعی است. متاسفانه برخی معتقدند به محض قدم گذاشتن در این اتاق قرار با دسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای از ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های فوق هوشمند با امیالی شیطانی مواجه شویم. که این البته ترس جدیدی نیست و تاریخ آن برمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گردد به سال ۱۹۶۰، وقتی که ریاضیدان بریتانیایی، آیروینگ جان گود[۱] که در زمان جنگ دوم جهانی به همراه آلن تورینگ به عنوان رمزشناس در بلچلی پارک  کار می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کرد، گفت: «اگر یک ماشین فوق هوشمند را ماشینی تعریف کنیم که قادر باشد پا فراتر از حد توانایی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های ذهنی هر انسان بسیار باهوشی بگذارد، آنگاه، از آنجایی که توانایی طراحی کردن یک ماشین جدید نیز بخشی از این توانایی و امکان است،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ این ماشین فوق هوشمند قادر خواهد بود که ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایی حتی بهتر از خودش طراحی کند و در این صورت بدون تردید با پدیده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «انفجار نبوغ» مواجه خواهیم شد که هوش انسان را کاملا پشت سر خواهد گذاشت.»

تکینه‌گرایان (SINGULARITARIANS) بر این باورند که هوش مصنوعی در آینده‌ی نزدیک به نقطه‌ی تکینگی می‌رسد. تکینگی زمانی است که هوش مصنوعی بتواند مستقل از انسان به زندگی خودش ادامه دهد و خودش را قوی‌تر کند. در نظر این گروه، هوش مصنوعی، هنگامی که به این نقطه برسد، می‌تواند هوش‌های قوی‌تری خلق کند و کنترل این ماجرا از دست انسان خارج می‌شود.

بنابراین اولین ماشین فوق هوشمندی که اختراع شود،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ آخرین چیزی خواهد بود که انسان به اختراع آن نیاز پیدا خواهد کرد. البته با این فرض که این ماشین آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌قدری  لطف کند که به ما روش تحت کنترل نگه داشتنش را هم بیاموزد. جالب این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که  تا کنون در جایی به غیر از دنیای قصه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های  علمی-تخیلی  به این نکته  پرداخته نشده است. بعضاً به نظر ضروری می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌رسد که نگاه جدی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تری به  این قصه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها انداخته شود.

به محض این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های فوق هوشمند تبدیل به یک واقعیت شوند،  ممکن است اصلاَ روی خوشی به ما نشان ندهند و بیشتر شبیه ترمیناتور[۲] عمل کنند؛ بشریت را به عنوان یک دسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی دون پایه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر از خود به بردگی گرفته و حقوقش را نادیده بگیرند و به دنبال اهداف و نیازهای خود بروند، بدون کمترین توجهی به این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که چه تاثیری بر زندگی انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها خواهند گذاشت.

اگر این موضوع به نظر شما فوق العاده است شاید بهتر باشد دوباره به آن توجه کنید. پیشنهاد می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنم در زمان، از ۵۰ سال قبل، به «اکنون» سفر کنید، شاید نظرتان عوض شود. زمانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای که سرعت شگفت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌انگیز پیشرفت در تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دیجیتال باعث شده است که عده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای نظریه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «انفجار نبوغ» جان گود را  خطری جدی  تصور کنند  و پایان گونه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی جانوری انسان را، در صورتی که به  قدر کافی مراقب نباشیم، نزدیک و محتمل بدانند. مانند چیزی که استیون هاوکینگ[۳] در سال ۲۰۱۴ گفت: «توسعه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی هوش مصنوعی کامل، ممکن است به معنی پایان بشریت باشد.»

سال گذشته بیل گیتس[۴] هم معتقد به همین دیدگاه بود:

«من در گروه کسانی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ام که راجع به قضیه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی فراهوشمندی ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها بسیار نگران‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. در ابتدا ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها بسیاری از کارها را بدون نیاز به این که هوشمند باشند برای ما انجام خواهند داد. در صورتی که بتوانیم از عهده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی مدیریت آن به خوبی برآییم، این فرآیند می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تواند نکته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی مثبتی باشد؛ اما در طول چند دهه بعد از آن، هوشمندی ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها به اندازه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای رشد کرده است که مایه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی نگرانی شود. من راجع به این  با ایلان ماسک[۵] و چند نفر دیگر هم نظر هستم و هیچ درک نمی‌کنم که چرا دیگران اصلا نگران این قضیه نیستند.»

اما ایلان ماسک، مدیر عامل تسلا، چه نظری راجع به این قضیه دارد؟

«ما باید درباره‌ی هوش مصنوعی بسیار با احتیاط عمل کنیم. از نظر من بزرگ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ترین تهدید برای موجودیت بشر، همین مسئله است. دانشمندان این زمینه معتقدند که باید یک نظارت منظم و دقیق در سطوح ملی و حتی بین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌المللی بر این قضیه وجود داشته باشد، مبادا  مرتکب کار احمقانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای شویم. این کار مثل احضار کردن شیطان در آن دسته داستان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ست که فردی با تصور این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که قادر به کنترل کردن آن خواهد بود، در یک پنتاگرام با جامی از آب مقدس نشسته است و همانطور که همه می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دانیم، اتفاقات خوبی در انتظار او و جهانش نخواهد بود.»

اما واقعیت کنونی بسیار سطحی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر و مبتذل‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر از این ترس‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های عمیق است. در مارس سال جاری، مایکروسافت یک روبات چت توییتری مبتنی بر هوش مصنوعی به نام  Tay را معرفی کرد، اما مجبور شد که بعد از تنها ۱۶ ساعت آن را از توییتر حذف کند. قرار بر این بود که این روبات با تعامل و برقراری ارتباط بیشتر با انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها هوشمندتر شود، اما به راحتی تبدیل به یک موجود وراج شد که از طرفداری هیتلر و انکار هولوکاست گرفته تا ادعا و تبلیغ راجع به ارتباط جنسی با محارم و تئوری‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های توطئه راجع به این که واقعه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی یازده سپتامبر کار بوش بوده، توییت می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کرد. چرا؟ به این دلیل که این روبات در واقع هیچ تفاوتی با اسفنج آشپزخانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای نداشت که هر چه برایش فرستاده شود بی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اختیار جذب می‌کند. این اتفاق مایکروسافت را وادار به عذرخواهی کرد.

هوش‌مصنوعی ناباوران که با کلمه‌ی جعلی (AITHEIST) در این متن از آنها نام برده شده است، اعتقاد دارند هوش مصنوعی هیچ‌وقت به نقطه‌ی تکینگی نخواهد رسید. به نظر این گروه، هوش مصنوعی ارتباطی به آگاهی و هوش انسانی ندارد و در زمانه‌ای که ما هنوز چیز خاصی درباره‌ی مدل آگاهی انسانی نمی‌دانیم، نگران بودن از هوش مصنوعی بی‌مورد است.

این وضعیت امروزی هوش مصنوعی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ست. بهتر است به جای اینکه مدام راجع به سناریوهای علمی تخیلی نگران باشیم، با واقعیت مواجه شویم و تمرکزمان را روی چالش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های واقعی و مهمی که هوش مصنوعی با آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها مواجه است قرار دهیم تا بعدها در استفاده از تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های هوشمند شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌مان دچار اشتباهات دردناک و پرهزینه نشویم.

بگذارید اندکی دقیق‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر وارد این قضیه شوم. فلسفه چندان به جزئیات نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌پردازد. شاید در مواجهه با پدیده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها از مدل‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌سازی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دقیق و با جزئیات بالا استفاده کند، اما چیزی که عمدتاَ مدنظر فلسفه و مورد علاقه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی فیلسوفان است، قطبی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌سازی و دسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بندی جهان، غالبا در دو دسته و قطب مخالف است. اینترنالیزم یا اکسترنالیزم، مبناگرایی یا انسجام باوری، چپ یا راست، زامبی یا غیر زامبی، لخت و یا غیرلخت، جهان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های ممکن و یا غیرممکن، با پشتوانه و یا بدون پشتوانه و…

فلسفه ممکن است بعضاْ از فصل منطقی مشارکت دهنده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «یا» استفاده کند (دخترها و یا پسرها هر دو می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانند بازی کنند) اما بیشتر اوقات از منطق انحصار طلبانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی تنها این و یا تنها آن بهره می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌برد. (دوستش داری یا از آن متنفری) بحث هوش مصنوعی نیز مثالی دیگر در تایید این قضیه است. در این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌جا دوگانگی میان دو دسته از انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها شکل گرفته؛ دسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای به هوشمندی کامل ساخته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی دست بشر اعتقاد دارند و دسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای دیگر که این امر را ناممکن و محال می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینند. البته که منظور از هوش مصنوعی کامل و واقعی، «سیری»[۶] در آیفون، «رومبا»[۷] در اتاق پذیرایی و یا «نست»[۸] در آشپزخانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی شما نیست. (خود من با افتخار از هر سه استفاده می کنم.) منظور ماریای دروغین در «متروپلیس»[۹]، هال۹۰۰۰ در «۲۰۰۱: ادیسه فضایی»[۱۰]، (در ساخت این شخصیت از دکتر جان گود مشورت گرفته شده بود.)، C3PO در «جنگ ستارگان»[۱۱]، ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ریچل در «بلید رانر»[۱۲]، دیتا در «استار ترک: نسل بعدی»[۱۳]، مامور اسمیت در «ماتریکس»[۱۴] و یا سامانتا بدون حضور فیزیکی در فیلم «او»[۱۵]، است. احتمالاَ حالا دیگر منظور از هوش مصنوعی واقعی و کامل را فهمیده باشید. معتقدین به نظریه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی انفجار نبوغ جان گود و هوش مصنوعی واقعی را می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان اعضای فرقه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایی»[۱۶] دانست. و از آنجایی که کلمه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی بهتری برای توصیف فرقه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی مخالف وجود ندارد،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها را می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان «هوش‌مصنوعی ناباور»[۱۷] نامید. حال در ادامه نگاهی به باورهای هر دو فرقه می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اندازیم و خواهیم دید که هرکدام چگونه مرتکب اشتباه شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. در این حین فراموش نکنید که فلسفه‌ی خوب و قابل اتکا، تقریباَ همواره جایی در میانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی بازه قرار می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گیرد.

تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان معتقد به سه اصل اساسی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند:

یک– آفرینش نوعی هوشمندی مصنوعی کامل در آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای نه چندان دور امکان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌پذیر خواهد بود و این نقطه از تاریخ را نقطه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «تکینگی تکنولوژیک» می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌نامند. اسم این فرقه برگرفته از این اتفاق است. جزئیات و ساختار این هوش مصنوعی و همچنین بازه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زمانی دقیقی برای ظهور آن هنوز توسط این فرقه مشخص نشده است. البته تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان معمولا ترجیح می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دهند بازه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زمانی مدنظرشان را این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گونه مطرح کنند: به قدری نزدیک که نیازمند توجه و نگرانی نسبتاَ عمیقی باشد و به اندازه کافی دور که در صورت اتفاق نیفتادن آن، دیگر خود زنده نباشند تا شکست اعتقاداتشان را به چشم  ببینند.

دو– خطر این وجود دارد که بشریت به احتمال بسیار زیاد توسط این چنین هوشمندی و نبوغ انفجار گونه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای، به بردگی گرفته شود.

سه- مسئولیت اصلی بر گردن نسل حاضر این است که یا از رخ دادن تکینگی کاملا جلوگیری کند و یا اگر نتوانست، اطمینان  حاصل کند که تحت کنترل خواهد بود و در مسیر کمک به بشریت به کار گرفته خواهد شد. این دیدگاه تمامی ابعاد و عناصر هستی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی مورد بحث در آیین مانوی را شامل می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود: مبارزه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی خیر و شر، مفاهیم ضمنی آخرالزمانی،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ اهمیت این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که اگر همین اکنون اقدامی نکنیم شاید بعدتر دیگر فرصتی فراهم نشود، دیدگاه آخرت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایانه در راستای رستگاری بشر و نوعی تمایل به ترس‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها و ناشناخته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها.

تمامی این تصورات را در کنار نگرانی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های به حق مردم راجع به تاثیرات منفی ناشی از استفاده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی نا به جای تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های روز در زندگی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شان، علی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌الخصوص در مقوله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی بازار کار و جنگ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های سایبری بگذارید. در زمانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای که رسانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها دائماَ خبر از دستگاه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های عجیب و غریب و فاجعه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بدون سابقه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای که منشائی کامپیوتری دارند منتشر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ ملغمه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای از هر آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌چه که برای گمراه کردن مردم لازم است، به راحتی فراهم می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود. این بار افیونی دیجیتال برای توده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها!

همانند سایر جهان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های مبتنی بر اعتقادات غیرعقلی، از لحاظ منطقی،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایی غیرقابل رد و انکار است. چرا که در نهایت هیچ گونه قید منطقی و مبتنی بر علت و مدرکی ارائه نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند. به علاوه، رخداد نتایج حاصل از آن نیز کاملاَ غیرمحتمل است، چرا که هیچ  دلیل و منطقی وجود ندارد که بخواهیم باور کنیم از وضع فعلی ما و یا حتی درک و پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌مان در آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی نزدیک،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ نتیجه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای حتی نزدیک به یک پدیده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی فوق هوشمند حاصل شود.  بگذارید بیشتر توضیح دهم:

بعضاَ تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایی را به صورت یک عبارت شرطی مطرح می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند. در این حین، نوعی مغلطه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی موذیانه رخ می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دهد؛ بدین صورت که تحت یک گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی شرطی، گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «تالی» در صورت صحت گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «مقدم» مطرح می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود: «اگر نوعی هوش مصنوعی کامل ظهور کند، آنگاه قطعاَ ما با مشکل عظیمی مواجه خواهیم شد.» (دقت کنید که در گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «تالی» با چه قطعیتی اعلام می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند که به مشکل حادی بر خواهیم خورد؛ حتی اندک تردیدی را که استیون هاوکینگ با به کار بردن واژه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی احتمالا از خود نشان داد به هیچ وجه در گفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینیم.)  فرض کنیم که این گزاره کاملاَ صحیح بوده و ما هم آن را قبول کنیم، در این صورت می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانیم این گزاره را مطرح کنیم که اگر چهار سوار مرگ آخرالزمانی ظهور کنند،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ ما قطعا با مشکلات بزرگ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر و فاجعه‌بارتری از فجایع احتمالی هوش مصنوعی مواجه خواهیم شد. اما دقت کنید، «اگر» آن سوارکارها ظهور کنند.

در دنیای داستان‌های علمی‌تخیلی هوش مصنوعی یکی از تهدیدهای مهم جهان آینده محسوب می‌شود. زمانه‌ای رسیده است که شبکه‌های پیچیده‌ی کامپیوتری کنترل جهان را از دست انسان ربوده‌اند و به سرعت در حال پیشرفت‌اند. از لحاظ تئوری هم زمانی که هوش مصنوعی بتواند یک هوش مصنوعی دیگر خلق کند، برای ادامه‌ی حیاتش نیازی به انسان نخواهد داشت. اما آیا چنین جهانی ممکن است؟

همین وضعیت مبهمی که برای «مقدم» وضع شده، زیرکی قابل تامل تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان را یادآوری می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند؛ وگرنه که تحت یک گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «مقدم» غلط می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان به انتفای مقدم، هرگونه نتیجه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای را استحصال کرد.

در دیگر استدلال‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان، شاهدیم که نوعی احتمال و عدم قطعیت را در گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های خود وارد می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند: «هوش مصنوعی کامل امکان رخ دادن دارد.» بله، امکان دارد و این هیچ گونه تناقضی با منطق ندارد اما نکته اینجاست که باید  میان: «من احتمالا فردا مریض خواهم شد چرا که همین الان کمی احساس ناراحتی می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنم.» و گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی «من احتمالا یک پروانه هستم که در خواب رویای انسان بودن می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بیند.» فرق قائل شد.

هیچ گونه تناقضی در این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که فرض کنیم یکی از بستگانتان که به تازگی مرده است برای شما ۱۰ میلیون دلار به ارث گذاشته وجود ندارد. این اتفاق ممکن است رخ دهد. منظور؟ در واقع تناقضاتی مانند «مجردی که از ازدواجش راضی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ست» برای هر عقل سلیمی مشخصاَ ناممکن است. اما درباره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی برخی گزاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها، مانند «نوعی موجودات فرازمینی مدت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هاست که بین ما زندگی می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند و خودشان را چنان مخفی کرده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند که امکان ندارد بتوان پیدایشان کرد.» با این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که دچار هیچ گونه تناقض منطقی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای نیستند اما به اندازه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی کافی دیوانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌وار و غیرمحتمل به نظر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌رسند که بتوان نادیده گرفتشان.

به بیانی دیگر و در تشریح این مورد، عبارت «امکان داشتن» به همان معنی و مفهومی که مثلاَ در جمله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی: «شما امکان دارد اولین انسان نامیرا در جهان باشید.» به معنای «نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود امکان آن را بالکل رد کرد.» تفسیر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود. این گزاره هم اصلاَ دلیلی منطقی برای این نیست که به یک‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌باره طوری شروع به زندگی کنید که انگار هرگز نخواهید مرد!

بر اساس همین منطق، در مورد هوش مصنوعی هم می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان اینطور گفت: این فرض‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها، نظرها و حتی ترس‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها، قابل قبول و پذیرش نیستند، تا زمانی که شخص یا اشخاصی  دلیلی محکم و مستدل ارائه کنند که مبنی بر این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که بر اساس دانش حال حاضر و یا دانشی که در آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای نزدیک به آن دست خواهیم یافت، خواهیم توانست به هوش مصنوعی کامل دست یابیم.

به اعتقاد من،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ در اینجا تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان، تحت تاثیر تفکرات آخرالزمانی، حقایق عقلی را با باورهای غیرعقلی ترکیب می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند. ابتدا از تبعات منفی و نگران کننده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی تسلط تکنولوژی بر زندگی، از آموزش گرفته تا بازار کار، به صورت تاثیرات محتمل آن در بیکار شدن عده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زیادی از افراد،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ پهبادهای بدون سرنشینی که از کنترل خارج می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شوند و سیستم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دیجیتالی که در خطر از کار افتادن هستند، سخن می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گویند و به ناگاه از نگرانی عمیقشان بابت این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که ممکن است ماشین هوندا سیویک آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها ناگهان به صورت خودآگاه عمل کرده و فرمان را به دست گیرد.

اصلا چگونه قابل تصور است که یک هوش مصنوعی شیطانی، خود به خود، از قابلیت پارک اتوماتیک اتومبیل در یک جای پارک کوچک و تنگ تکامل پیدا کند؟ حقیقت این است که بالا رفتن از یک درخت تنها یک گام کوچک به سمت ماه نیست بلکه پایان و انتهای مسیر است. اتفاقی که قرار است بیفتد این است که ما در آینده شاهد تولید دستگاه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بسیار پیشرفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای خواهیم بود که قادر به انجام کارهای بیشتری هستند؛ کارهایی که یک زمانی فقط ما از عهده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی انجام آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها بر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌آمدیم.

وقتی دیگر همه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی استدلال‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های قبلی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شان به مشکل بربخورد، تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان شیفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی این هستند که از ریاضیات کمک بگیرند و یکی از مهم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ترین قضایای مورد علاقه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها قانون «مور»[۱۸] است. طبق این ادعای تجربی، تقریبا هر دو سال، تعداد ترانزیستورهای درون آی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌سی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها دوبرابر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود؛ به بیان دیگر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان گفت که اندازه ترانزیستورها هر دو سال نصف می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود. که نتیجه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌آن تا به حال این بوده که توان پردازشی به ازای همان میزان فضای فیزیکی قبلی، به صورت نمایی افزایش یافته. اما اوضاع امروزه فرق کرده است. مشکلات تکنیکال در نانوتکنولوژی، پیشرفت در این زمینه را با چالش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بسیار جدی مواجه کرده است، چرا که به هر حال هر چیزی را تنها می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان تا یک حد مشخصی قبل از آن که به طور کامل ذوب شود، کوچک کرد. قانون مور امروزه دیگر برقرار نیست. این حرف درستی نیست که بگوییم اگر یک پدیده طی مدت زمانی به صورت نمایی رشد پیدا کرد، تا ابد نیز به همین صورت به رشد خود ادامه خواهد داد. در سال ۲۰۱۴ اکونومیست مقاله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای  با این مضمون منتشر کرد: در طی تاریخ مستند و در دسترس، انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها  به عنوان حاکمان بلامنازع زمین، در میان گونه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های جانوری  زندگی می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کرده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. آیا این قضیه رو به پایان است؟ بوقلمون‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها، این موجودات بی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌آزار، به طرز غیرقابل باوری در حال بزرگ شدن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند! وزن ثبت شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی این پرندگان در سال ۱۹۲۹، ۶ کیلوگرم بوده که امروزه به بیش از ۱۳ کیلوگرم رسیده است. با فرض این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که این روند رشد به همین صورت ادامه پیدا کند، در ۱۵۰ سال آینده، بوقلمون‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها به طور متوسط به اندازه یک انسان بزرگ شده و در ۶۰۰۰ سال آینده کره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زمین در برابر آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها بسیار کوچک به نظر خواهد رسید. دانشمندان معتقدند که این رشد سریع بوقلمون‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها نتیجه‌ی نوآوری‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های انجام گرفته در صنعت مرغداری، مانند زادگیری انتخابی و تلقیح مصنوعی است. البته هنوز می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان به خاطر ذات تصنعی رشد در آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها و این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که عملا قابلیت پرواز را از دست داده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند، به آینده امیدوار بود! ولی با توجه به ۲۵۰ میلیون بوقلمونی که تنها در مرغداری‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های آمریکا وجود دارد، بهتر است که خودمان را از حالا  آماده کنیم. در حال حاضر و در آستانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی عید شکرگزاری،  تنها کاری که از ما برمی آید، این است که آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها را بخوریم قبل از این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها ما را بخورند.

اگر به خاطر شکل سیگموئیدی[۱۹] منحنی رشد که با یک روند تقریبا نمایی شروع به رشد می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند و در انتها اشباع شده و به یک مقدار ثابت می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌رسد، نبود، می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شد آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای با نام احتمالی «هوش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌مصنوعی-زیلا»[۲۰] به مانند پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های مربوط به «بوقلمون-زیلا»[۲۱] متصور شد. ولی احتمالاَ در مکتب تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایی، مطرح کردن منحنی سیگموئید برای رشد، نوعی کفرگویی به شمار آید.

تفکر تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایی به طرز غیرقابل قبولی در حال تمرکززدایی است. این مسئله، تنها مشغله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای جهان اولی است و احتمالاَ فقط مردم جوامع مرفه و ثروتمند را، که چشم به روی پلیدی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های واقعی موجود بر روی زمین بسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند، تحت تاثیر قرار دهد. به عنوان مثال حدودا‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ ۷۰۰ میلیون نفر از ساکنان سیاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زمین، به آب سالم دسترسی ندارند. این تهدید بزرگی برای بشریت است و اگر تا به حال فکر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کردید که پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دانشمندان بسیار قابل اتکاست، بهتر است این نکته را گوشزد کنم که در این زمینه، تا به حال پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بسیار متعددی توسط متخصصین انجام شده. برای مثال بیل گیتس در سال ۲۰۰۴ گفت: «تا دو سال آینده مسئله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی اسپم کاملا حل خواهد شد.» و در سال ۲۰۱۱ استیون هاوکینگ اعلام کرد که: «فلسفه مرده است» (توجه شما را به این مقاله که در حال مطالعه‌اش هستید جلب می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنم [و همچنین مجموعه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی فلسفیدن])

یکی از این پیش بینی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایی که بیشتر از سایرین جلب توجه می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند توسط رابرت متکالف[۲۲] مخترع پروتکل اترنت[۲۳] و بنیان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گذار شرکت ۳Com در سال ۱۹۹۵ انجام گرفت. او در مقاله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای که منتشر کرد اعلام کرده بود: «به زودی اینترنت به شدت اوج می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گیرد و سپس در سال ۱۹۹۶ به شدت سقوط خواهد کرد.» و اگر این پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی به وقوع نپیوندد، نوشته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی خودش را خواهدخورد. او که به قول خود پایبند بود در سال ۱۹۹۷ در منظر عموم مقاله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اش را در یک مخلوط کن ریخت و سپس آن را خورد. ای کاش تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان هم به اندازه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی او، جسور و متعهدانه با گفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایشان مواجه شوند.

هوش‌مصنوعی ناباوران،  دقیقاَ در دسته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی مقابل تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان، به این نتیجه رسیده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند که هرگونه اعتقاد به هوش مصنوعی کامل و واقعی، اشتباه محض است. هوش مصنوعی تنها مفهومی رایانه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای است و رایانه هم چیزی نیست به جز یک ماشین تورینگ[۲۴] و ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های تورینگ نیز چیزی جز نوعی دستگاه ساخته دست بشر نیستند. این دستگاه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانند فکر کنند،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانند بدانند و نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانند خودآگاه باشند. پایان ماجرا.

این دقیقاَ همان دلیلی است که می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان تعداد بسیار زیادی کتاب و فیلم با مضمون کارهایی که هنوز کامپیوترها قادر به انجامش نیستند، یافت.

کامپیوترها هنوز حتی قادر به درک معنای[۲۵]  نوشته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها به زبان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های مختلف، از جمله زبان چینی، نیستند. (هرچقدر هم که گوگل ترنسلیت پیشرفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر بشود.) و همین کافی است برای این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که تمام نگرانی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های ما راجع به این قضیه از بین برود. هیچ هوش مصنوعی کاملی به وجود نخواهد آمد بنابراین هیچ چیز نگران کننده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای هم راجع به آن وجود نخواهد داشت. با آرامش خاطر به استفاده از ابزارهای الکتریکی خود ادامه دهید و سعی کنید از آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها لذت ببرید.

یکی از چالش‌های مهم هوش مصنوعی احساسات است. شاید روبات‌ها بتوانند ریاضیات را سریع‌تر از انسان‌ها پردازش کنند و با بررسی سناریوهای مختلف تصمیم‌های منطقی‌تری بگیرند. اما آیا روبات‌ها می‌توانند عاشق شوند؟ در فیلم سینمایی او (HER) هوش مصنوعی‌ای را می‌بینیم که می‌تواند یک انسان را عاشق خودش کند و حتی خودش هم عاشق شود. رسیدن به چنین نقطه‌ای در دنیای واقعی می‌تواند خیلی خطرناک باشد. اما آیا روبات‌های عاشق‌پیشه روزی می‌توانند از داستان‌ّهای علمی‌تخیلی بیرون بیایند؟

هوش‌مصنوعی ناباوران هم مانند تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان دچار کج‌‌‌‌روی و انحراف در عقاید خود شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. پیروان این دو آیین، عمدتاَ در ایالت کالیفرنیا مستقرند؛ جایی که فیلم‌‌‌‌های علمی تخیلی هالیوود، دانشگاه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها و مراکز تحقیقاتی مثل برکلی[۲۶] و مهم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ترین و پیشروترین شرکت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های تکنولوژیک جهان، دوشادوش یکدیگر در حال رشد هستند و این اصلاَ اتفاقی نیست. وقتی پای پول زیاد وسط باشد، مردم به راحتی دچار اشتباه می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شوند. به عنوان مثال گوگل به طرز دیوانه واری مشغول خریدن تمامی شرکت‌‌‌‌های فعال در حیطه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی هوش مصنوعی است و این حتماَ به این معنی است که گوگل در این باره چیزهایی می‌‌‌‌‌‌‌‌داند که ما، از آن بی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌خبریم. رئیس اجرایی گوگل، اریک اشمیت[۲۷] در مصاحبه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای در سال ۲۰۱۳ با انستیتو اسپن[۲۸] با اعلام خبری، به طور ضمنی این نظریه را تایید کرد: «متخصصان زیادی در زمینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی هوش مصنوعی معتقدند که ما در پنج سال آینده به کامپیوتری دست خواهیم یافت که قادر به پاس کردن آزمون تورینگ باشد.»

آزمون تورینگ آزمونی است که به وسیله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی آن می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توان بررسی کرد که آیا هوش مصنوعی پیشرفتی کرده است یا نه، این آزمون بدین صورت انجام می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گیرد که در دو اتاق متفاوت که در یکی یک انسان و در یکی کامپیوتر قرار گرفته است، سوالاتی پرسیده می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شود. اگر شخص پرسش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گر نتواند تفاوتی میان پاسخ کامپیوتر و پاسخ انسان قائل شود، کامپیوتر در این تست موفق شده است. آزمون تورینگ، آزمونی خام و ناپخته است. فرض کنید آلیس در آزمون گواهینامه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی رانندگی برای بار اول رد می‌‌‌‌شود، این به این معنی بوده که او به عنوان یک راننده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی ایمن صلاحیت رانندگی را نداشته است. حال اگر او برای دومین بار شرکت کند و بتواند در آزمون رانندگی موفق شود آیا به این معنی است که او صددرصد راننده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای ایمن و بدون خطر برای جامعه است؟ آزمون تورینگ شرط لازم را تامین می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند ولی شرط کافی را خیر. این آزمون، آزمون بسیار ساده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای است ولی هنوز هیچ کامپیوتری نتوانسته از پس آن برآید. مهم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که تمامی هوش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های مصنوعی که مورد این تست قرار گرفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند، در پاسخگویی به همان سوال‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های چالشی و روش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایی که در سال ۱۹۶۰ هم پرسیده می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شد، شکست خورده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. بگذارید همین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌جا یک شرط با شما ببندم؛ اگر تا ۱۶ جولای سال ۲۰۱۸ نرم افزاری توانست از پس آزمون تورینگ بربیاید و برنده مدال طلای لوبنر[۲۹] شود، با وجود این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که از بادمجان متنفرم یک بشقاب کامل از آن را خواهم خورد.

هم تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان و هم هوش‌مصنوعی ناباوران دچار اشتباه شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. تورینگ در مقاله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی خود، در سال ۱۹۵۰ برای اولین بار آزمون تورینگ را معرفی کرد. وی در این مقاله بیان کرده بود که سوال «آیا ماشین قادر به فکر کردن است؟» به قدری بی‌معنی است که اصلاَ نیازی به بحث کردن ندارد. (از روی کنایه و یا حتی احتمالاَ به خاطر اینکه کاملاَ آگاه به نتیجه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند، این سوال روی مدال جایزه لوبنر حک شده است.) این حقیقتی کتمان‌ناپذیر است و فرقی نمی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند شما طرفدار کدام یک از این دو دسته باشید. با این وجود ، هر دو دسته علاوه بر اینکه به این بحث بی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌نتیجه ادامه می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دهند، هرگونه صدای مخالفی را هم خفه می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنند.

دست‌یابی به یک هوش مصنوعی کامل، از لحاظ منطقی غیرممکن نیست ولی کاملا غیرمحتمل است. ما کمترین ایده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای از این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که چگونه بایستی شروع به ساخت آن بکنیم نداریم؛ چرا که حتی دانش کافی از نحوه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی کارکرد مغز و مفاهیمی مثل هوشمندی خود انسان نداریم.

و این به این معنی است که نباید حتی اندکی نگرانی راجع به ظهور یک هوش مصنوعی خارق‌العاده به دل خود راه دهیم. مسئله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی اصلی که می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بایست در نظر گرفت این است که حضور هر چه بیشتر تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های هوشمند، تاثیر خارق‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌العاده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای در برداشت و درک ما از خودمان، جهان اطرافمان و برهم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کنش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌مان با محیط اطراف داشته است و این به این خاطر نیست که دستگاه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های ما خودآگاه، هوشمند و یا آگاه به رفتار و اعمال ما شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند. بررسی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بسیار زیادی انجام گرفته و همگی بیانگر محدودیت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های محاسباتی کامپیوترها در حل مسائلی بسیار پیچیده، برای به دست آوردن یک جواب مشخص هستند. به عنوان مثال اصل تناظر کری-هاوارد[۳۰] بیانگر این است که سیستم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های اثباتی در منطق و مدل‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های محاسباتی مورد استفاده در کامپیوترها اصولا از یک ساختار مشابه تشکیل شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند، بنابراین هر گونه محدودیت منطقی موجود در ریاضیات برای کامپیوترها نیز برقرار است. تعداد بسیار زیادی از ماشین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها قادر به انجام کارهای بسیار شگفت‌انگیز مثل بازی شطرنج، گو و یا حتی شرکت در مسابقات تلویزیونی پرسش و پاسخ هستند، اما نباید فراموش کنیم که همه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها تنها نسخه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای از یک ماشین تورینگ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند که توسط منطق ریاضی محصور شده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند.

کامپیوترهای کوانتومی هم تنها قادر به محاسبه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌چیزی هستند که از لحاظ ریاضی قابل محاسبه است. بنابراین نباید انتظار داشت که هیچ گونه موجود آگاه و یا هوشمندی از یک ماشین تورینگ سر برآورد. به لطف برنامه‌نویسی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بسیار پیچیده و حجم بالای داده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های در دسترس، امروزه تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های گوناگون، قادر به این هستند که تعداد بسیار زیادی از کارها را بهتر از آن نحوی که ما انجام می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دهیم، انجام بدهند و حتی می‌توانند رفتارهای ما را  پیش‌بینی کنند و این به این معناست که ما تنها موجوداتی نخواهیم بود که قادر به انجام موفقیت‌آمیز یک کار مشخص است.

این همان چیزی است که تحت عنوان «انقلاب چهارم»، در درک ما نسبت به حضورمان در جهان رخ داده است. ما دیگر در مرکز جهان قرار نداریم (کوپرنیک)،‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ به عنوان یک نوع تکامل یافته مانند سایر موجودات زنده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ایم (داروین) و دیگر آن موجود تماماَ منطقی و عقلانی که گمان می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کردیم نیستیم (فروید) و حالا پس از تورینگ، ما دیگر جایگاهی در مرکز سیاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی اطلاعات[۳۱] و پردازش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های هوشمندانه نداریم و امروزه این جایگاه را با تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دیجیتال به اشتراک گذاشته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ایم؛ مصنوعات رایجی که هر روز بیشتر از روز قبل در انجام دادن مقدار بیشتری از کارها از ما پیشی می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گیرند، با این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که حتی نیازی نیست از یک توستر هوشمند‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تر باشند. قابلیت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بسیار زیاد این تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها باید ما را به این سمت سوق بدهد که ارزیابی دوباره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای از جایگاه و نقش خود در جهان نسبت به آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها داشته باشیم. یک زمانی گمان می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کردیم که موجودات هوشمندی هستیم، چرا که می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانیم شطرنج بازی کنیم؛ امروزه اما، یک موبایل حتی از یک استاد بزرگ شطرنج هم بهتر بازی می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کند. زمانی فکر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌کردیم آزادیم هر آنچه دلمان خواست خریداری کنیم، ولی امروزه دیگر انواع الگوهای رفتارهای مالی ما، توسط جعبه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایی عجیب و غریب کاملاَ شناسایی شده و قابل پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی است.

ما در عین حال که مشغول گمانه‌زنی درباره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی ترسناک محتمل با حضور موجودی فوق هوشمند بودیم، دائماَ محیط زندگی خود را با نرم‌افزارها، دستگاه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها و سنسورها پر کردیم؛ به طوری‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که در حال حاضر، دیگر این تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها بدون کمترین نیازی به ما، بدون نیاز به هیچ گونه خصلت انسانی مثل حالات خلقی، احساسات، قصد و نیات و توانایی درک معنا و از این دست ویژگی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها، قادرند که به فعالیت خود ادامه بدهند. داشتن حافظه برای ذخیره‌سازی مقدار زیادی داده و قابلیت ذخیره‌سازی الگوریتم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های پیچیده، در مقابل ویژگی هوشمند بودن یک انسان، نتیجه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی بهتری در فرود آوردن یک هواپیما، پیدا کردن سریع‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ترین مسیر از خانه تا محل کار و پیدا کردن بهترین قیمت برای یخچال بعدی شما به‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دست می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌آورد.

تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دیجیتال به لطف پردازش داده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بیشتر و امکان بهبود دادن عملکرد خود با تحلیل  نتایج قبلی و تاثیر دادن آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها در محاسبات بعدی خود، اکنون قادر به انجام کارهای بیشتر و بهتری نسبت به ما هستند. آلفاگو[۳۲] کامپیوتری که در پروژه دیپ مایند[۳۳] گوگل توسعه داده شده بود، توانست در بازی “گو” بهترین بازیکن جهان را شکست دهد چرا که به پایگاه اطلاعاتی شامل ۳۰ میلیون حرکت ممکن در این بازی دسترسی داشت و می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌توانست هزاران بار با خودش بازی کرده و هر بار «یاد بگیرد» که چگونه عملکرد خود را بهبود ببخشد. درست مانند چاقوی دولبه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای که اتفاقا می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تواند خودش را هم تیزتر کند. فرق بین این دو چیست؟ فرق این دو (چاقوی دو لبه و کامپیوتر آلفاگو) درست مانند تفاوت یک انسان با یک ماشین ظرفشویی است. از این قضیه چه نتیجه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای می‌توان گرفت؟ این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که هر گونه تخیل آخرالزمانی مرتبط با هوش مصنوعی می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تواند کاملاَ نادیده گرفته شود. مسئله و مشکل اصلی در آینده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی دور و نزدیک هم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌چنان خود انسان باقی خواهد ماند. اینجاست که باید روی چالش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های واقعی تمرکز کرد. برای نتیجه گیری نهایی بگذارید پنج  مورد از این چالش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها را که همه به یک اندازه مهم هستند در ادامه بیاورم:

  • باید هوش مصنوعی را در زمینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های دوست دار محیط زیست رشد داد. ما نیاز داریم که هوشمندترین تکنولوژی‌‌های‌مان را برای حل مسائلی که تهدید کننده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زندگی ما و کره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی زمین‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌اند به کار بگیریم، مانند بلایای طبیعی، بحران های مالی، جرم و جنایت، تروریسم و جنگ، قحطی و  فقر، بی سوادی و بی عدالتی و بالا بردن سطح استانداردهای زندگی.
  • باید هوش مصنوعی را در راستای منافع بشری و انسان دوستانه گسترش داد. یعنی طبق گفته‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی امانوئل کانت، به گونه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای که همواره انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها را به عنوان هدف نهایی بشناسد نه این‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌که از آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها به عنوان وسیله‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ای برای رسیدن به هدفی دیگر استفاده کند.

باید به صورت هوشمندانه از هوش مصنوعی استفاده کرد. درست است که میلیون‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها شغل از بین خواهد رفت اما مشاغل جدیدی نیز به وجود خواهد آمد و کل جامعه باید در سود و زیان آن مشارکت داشته باشد.

  • از قابلیت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های پیش‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بینی کننده‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی هوش مصنوعی، باید در راستای اصول بنیادین آزادی و  اختیار انسان استفاده شود. الگوریتم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بازاریابی، رفتارشناسانه و الگوریتم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های پیشگیری کننده از جرم و تروریسم هرگز نباید برخلاف شأن و مقام انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها استفاده شود.
  • و در آخر می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌بایست کاری کنیم که هوش مصنوعی از ما انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های بهتری بسازد چرا که احتمال این خطر وجود دارد که این تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها مورد سو‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ء استفاده قرار گرفته و حیات تعداد قابل توجهی از انسان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های روی زمین و حتی خود کره زمین را به شدت تهدید کنند. وینستون چرچیل می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گوید: »ابتدا ما ساختمان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌هایمان را شکل می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دهیم و سپس این ساختمان‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های ما هستند که به ما شکل می‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌دهند.« این گفته برای سیاره‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ی اطلاعات و تکنولوژی‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌های هوشمند امروزی نیز صدق می کند.

تکینه‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌گرایان و هوش‌مصنوعی ناباوران، به این جنگ لفظی خود در باب ممکن بودن یا نبودن هوش مصنوعی کامل، ادامه خواهند داد. ما باید در برابر این بحث‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها صبور باشیم. نیازی به شرکت کردن در بحث و جدل بین این دو گروه نیست. همانطور که ویرژیل[۳۴] در کتاب دوزخ[۳۵] دانته[۳۶] گفته است: «از آن‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها سخن مگو، اما نگاهی به آنان بیفکن و گذر کن.» چرا که در دنیای امروزلازم است که مشکلات مهم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تری حل شود و فیلسوف‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ها وقت‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌شان را صرف مباحث فلسفی مهم‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌تری بکنند.


پانویس‌ها:

[۱] Irving john good

۲ Alan Turing

۳ Bletchley Park

[۲] Terminator 1984

[۳] Stephen Hawking

[۴] Bill Gates

[۵] Elon Musk

[۶] SIRI

[۷] Roomba

[۸] Nest

[۹] Metropolis (1927)

[۱۰] ۲۰۰۱ : A Space Odyssey (1968)

[۱۱] Star Wars (1977)

[۱۲] Blade Runner (1982)

[۱۳] Star Trek : The next generation (1987)

[۱۴] The Matrix (1999)

[۱۵] Her (2013)

[۱۶] Singularitarians

[۱۷] AItheist

[۱۸] Moor’s Law

[۱۹] Sigmoid: تابعی دارای دو کران بالا و پایین.

[۲۰] AIzilla

[۲۱] Turkzilla

[۲۲] Robert Metcalfe

[۲۳] Ethernet

[۲۴] Turing Machine

[۲۵] سمانتیک

[۲۶] Berkeley

[۲۷] Eric Schmidt

[۲۸] Aspen

[۲۹] Loebner Prize

[۳۰] Curry-Howard

[۳۱] Infosphere

[۳۲] AlphaGo

[۳۳] Deep Mind

[۳۴] Virgil

[۳۵] inferno

[۳۶] Dante

سربازان سرد

تر میناتور: اطلاعات زیادی از آناتومی بدن انسان دارم.
سارا: حتما –قاتل قابل تری میشی. درسته.
ترمیناتور: بله!
جان: تیر میخوری ناراحت نمیشی. (مورد اصابت قرار میگیری درد نمیکشی) .
ترمیناتور: برخورد حس میشه این اطلاعات حس صدمه نامیده میشه. (سنسورهای به هم پیوسته توسط شبکه ی عصبی اطلاعات مربوط به حس نزدیکی و برخورد را درک و سپس میزان خسارت را بر آورد میکنند)
«امروزه در ناوها و کشتی های بزرگ و نیز هواپیماها این تکنولوژی بخش جدا ناپذیری شده و اکنون سعی در استفاده از این تکنولوژی در ساختمانها برای برآورد میزان خسارت بر اثر زلزله و سیل و عوامل دیگر و در دیگر ابزار در حال بررسی و انجام است.»
سارا: اینا خوب میشن (منظور محل برخود گلوله ها) .
ترمیناتور: بله. (اشاره به ایجاد قابلیت نفوذ ناپذیری و نیز ترمیم پذیری هوشمند در روکشهای پلاسمایی و… به کمک تکنولوژی نانو)
جان: چقدر عمر میکنی یعنی دوام داری؟ (اشاره به تامین کننده های انرژی)
ترمیناتور: با باطری های موجود یکصدو بیست سال. (اشاره به تولید باطری های با حجم کم و طول عمر زیاد است)
شاید اصلی ترین هدف و در واقع فلسفه ی بکار گیری ربوتها در انواع و شکلهای مختلف در جنگ پایین آوردن تلفات انسانی در جنگ وبه حداقل رساندن آن باشد.
در واقع شعاری که در این بخش مورد نظر است این است که: «جنگ افزارها و یا تجهیزات در معرض خطر، تا آنجا که امکان دارد باید بدونه خدمه باشد». یعنی به صورت خودکار درآید.
امروزه تبار تازه ای از (golem) – موجودی میکانیکی در افسانه ی یهودی- در افق پدیدار گشته و روح خود را در ماشینهای مین روب و ربوتهای شناسایی و یا سایبورگهای مهاجم اعم از نرم افزاری و سخت افزاری دمیده است.
بحث استفاده از   جنگ آوران سرد   در صحنه ی کارزار بحثی قدیمی است.
پس از جنگ اول بین الملل تلاش برای ساختن ماشینهای انسان نما ی نظامی پی در پی با مانع روبرو شده و به دلیل برآورده نکردن حد اقل انتظارات شرمندگی به بار آورده است.
توده ی مردمان نا آگاه در این ضمینه هنوز آدمواره های جنگ آور را با فیلمهای مبتنی بر خیال پردازی علمی- تخیلی مانند «Robocop» و «terminator» ربط میدهند و افسران سنت گرا همچنان بر بدبینی خود استوار ایستاده اند.
در حالی که این دو افق دید ناکار امدی خود را نشان داده اند دانشمندان عرصه ی الکترونیک و کامپیوتر و مکانیک و (مکاترونیک و ربوت شناسی) به تلاشهای خود در این زمینه ادامه داده اند.
جنگ خلیج فارس (1990- 1991) سبب پیشرفت اساسی در این زمینه ها شد.
در این جنگ از وسایل نقلیه ی هدایت شونده از راه دور، هواپیماهای بدونه خلبان با کاربردهای جاسوسی استفاده شد.
با افزایش استفاده از ربوتها در کارخانه ها از جمله در صنایع غیر نظامی مانند خودرو سازی، تا استفاده از چیپهاای که وظیفه شان در شبکه های مخابراتی فهمیدن محل خرابی و یا تبدیل داده ها از آنالوگ به دیجیتال و بلعکس است و نیز شبکه های هوشمند راهها و اتوبانها برای شناخت سریع، سرعت خارج از قانون وتخلفات وخرابی و اشکال در بزرگ راهها و غیره، همچنان مسیر رو به پیشرفت خود را طی کرده است.
از زمانی که چهارچوب ونحوه ی اداره کردن جنگ از c2 به c3 ارتقاع یافت و طی مدت زمان نه چندان زیاد پیشرفت کرد و به c4iرسید و حتی قبل از اینکه به c4i2 یرسد کامپیوتر ها به عنوان اجزایی بسیار ماثر در جنگها به خدمت گرفته شدند که وظیفه هایی از جمله شبیه سازی محیط های نظامی و نیز بهبود بخشیدن به کیفیت رد و بدل شدن اطلاعات در محیط نظامی و رمز گزاری داده ها به عهده ی آنها گذاشته شده بود.
ولی با ورود هدایتهای از راه دور و بعضا خودکار، اهمیت و کاربرد رایانه ها در جنگ نیاز به بررسی عمیق تر و باز تعریف دارد.

ماموریت ها
از جمله پرخطر ترین کارها در جنگ ماموریت شناسایی و پاک سازی و گشت زنی است.
وظیفه گشت زنی اکثرا به عهده ی هلی کوپتر ها در جنگ گذاشته میشود.
از راههای کاهش تلفات گشت های هلی کوپتری استفاده از هلیکوپتر های بدونه سرنشین و تا حدودی هوشمند و کنترل از راه دور است.
در واقع از راههای کاهش تلفات هلی کوپتری استفاده از دسته هایی از روبوتهای به شکل هلی کوپتر و هواپیما است (هواپیما کاربردی تر و رایج تر است) که ما با نام هواپیماهای- بدون سرنشین و شناسایی ;جاسوسی- میشناسیم که هر یک به گیرنده ی تخصصی متصل است و اطلاعات در حوزه ی وظیفه ی خود را در اختیار فرماندهان قرار میدهد.
به گفته ی یکی از دست اندرکاران (1) هنگامی که عملیات طوفان صحرا آغاز شد، هواپیماهای پیش گام 330 به نوبت به پرواز در آمدند و بیش از 1000 ساعت را در فضا گذراندند. در سراسر دوره نبرد هر یک از آنها 24 ساعته در حال پرواز بودند.
این هواپیماهای هدایت شونده از راه دور، به ماموریت های شناسایی پرداختند، خسارتهای ناشی از بمبها را برآورد کردند، در خلیج فارس به جستجوی مینها برآمدند، قابقهای گشتی عراق را زیر نظر گرفتند، و وظایف دیگری را به انجام رساندند و فقط سه تای از آنها بر اثر مورد تهدید قرار گرفتن با سلاحهای سبک صدمه دیدند و فقط یکی سقوط کرد، بدونه تلفات انسانی.

ترور با روبوت
ارتش رژیم اشغالگر قدس در سال 1989 ماشینهای هدایت شونده از راه دور در لبنان به کار بست و در یک مورد یک هواپیمای هدایت شونده از دور، اتومبیل حامل جمعی از مسئولان فلسطینی را شناسایی و طی حمله ای مجدد طی حرکتی تروریستی به انهدام ساند.
هواپیماهای پیش گام تنها ربوتهای مطیع بشر نبودند که به کار گرفته شدند.
یگان هشتاد و دوم هوا برد آمریکا، یک«زنبور»هدفگیر آزمایشی را به کار گرفت که آن را میتوان در دو کوله پشتی حمل و در پنج دقیقه روی هم سوار کرد.
این وسیله برای گشت زنی در اطراف پایگاه مورد استفاده قرار گرفت.
استفاده از ربوتها (در جنگ عراق) منحصر به عملیات هوایی نبود. بر پایه ی گذارشها، مین روبهای آلمانی، قایقهای گشتی بدونه سرنشین به نام troikasرا نیز به کار گرفتند.
ماشین های صنعتی کارخانه ها به عنوان ابزار دو منظوره (آتش زیر خرمن)
در شرکت   کوماتسو  در ژاپن نوعی روبوت با پاهای متعدد برای کارهای ساختمانی در زیر آب تولید شده.
قانون اساسی ژاپن صدور هر گونه جنگ افزار را منع میکند. اما آدم نمی داند چه چیز مانع از آن خواهد شد که چنین ربوتب زیر آبی برای کار گذاشتن مین یا گیرنده در نقاطی که در غیر این صورت قابل دست رسی نمی بود به کار رود؟.
در واقع همه ی این ربوتها مانند کامیونها و جیپها میتوانند هم برای مقاصد صلح آمیز و هم مقاصد غیر صلح آمیز به کار روند.
(الوین تافلر- البته کسانی که با آثار تافلر آشنایی دارند از بحث یک جانبه و جانب دارانه او در کتاب هایش باخبرند –اگر این طور باشد باید درس فیزیک حتی در مدارس تعطیل شود که مبادا کشوری- البته به جز آمریکا ی مصون از خطا!!! – دست به بمب اتمی نیابد. و معمولا کسانی این گونه میاندیشند که خود دچار سوگیری اند و فکرهای کج در ذهن می پرورانند)

ربوتهای نگهبان (اختاپوسهای متحرک با هزاران چشم الکترونیکی)
بسیاری از ربوتها ثابت بر روی دیوارها و یا زمین مجهز به سلاح یا دوربین های پیشرفته به صورت سفارشی برای نگهبانی از کارخانه ها انبارها ویا مهم تر پایگاههای موشکی و تاسیسات هسته ای –در برابر افراد غیر مجاز ساخته شده اند.
شرکتی در کلرادو آمریکا به نام (سیستمهای دفاعی ربوتی) یک ماشین چرخ دار دوتنی ساخته به نام جستجو گر (prowler) برای کار نگهبانی.
این ربوت میتواند از فاصله ی 19 مایلی کنترل شود. این دستگاه که انباشته از کامپیوتر ها و دوربینهای ویدویی متحرک است می تواند پیرامون تاسیسات بگردد یا مراقب نقطه ی ورودی آن باشد.
جستجو گر برای موضع گیری، از بردیابهای لیزری و ابزارهای دیگری از جمله گیرنده ایی که تغییرات را در مسیری که میپیماید مشخص میسازد، استفاده میکند.
(از جمله جابجایی- اختلاف دما و اختلاف فشار –گازهای موجود و….)
(البته این تکنولوژی را ما اکنون در نوع فیلمهای divxمیبینیم –فیلمی که متحرک تر واکشن تر باشد فضای بیشتری را (مگابایت) اشغال میکند و فیلمی که آرام تر باشد فضای کمتری را و همین اختلاف ظرفیت میتوانند نشانه ی جابجایی در یک محیط باشد)
در واقع متصدی دستگاه مسلح به آنچه بر روی آن روبوت نصب شده است میباشد و با این دوربینها وسنسورها و احیانا سلاحها در حین گشت زنی به دنبال شکار از راه دور میدود.
روی این ماشین میتوان وسایل دید در شب، ابزارهای تجسسی با اشعه ی مادون قرمز، رادار و حرکت یاب و لرزه یاب های الکترو مغناطیسی نصب کرد
این ماشین همچنین میتواند به سلاحهای متفاوت و گوناگونی مجهز شود..

ربوتهای با هوش تر (خود مختار)
ربوتهایی که از راه دور کنترل میشوند تنها ربوتهایی نیمه باهوشند. نمونه هایی باهوشتر وجود دارد که از جمله میتوان به سیستم هدایت موشک کروز- توما هاوک – اشاره کرد که وقتی پرتاب شد دیگر دستوری نمی گیرد، بلکه قبلا برنامه ای به آن میدهند که مستقلا بابرسی عوامل پیش رو عمل کند.
در مرحله ی آخر این تکنولوژی در بعد نظامی، ربوتهایی متولد خواند شد که بیشتر وبیشتر روی پای خود میایستند ومستقلا عمل میکنند و به اصطلاح خود مختار خواهند بود.
مشکل جنگ افزارهای ربوتی هدایت شونده از راه دور این است که متکی به پیوندهایی هستند که انسانها را به پدیده های میکانیکی کم هوش تر اما بسیار حساس و سریع که در واقع مکمل همان آنهاست مربوط میسازد.
از ویژهگیهای ربوتهای خود مختار سرعت آنهاست که میتوانند با سرعتی بیش از انسان تصمیم بگیرند و عمل کنند و این در شرایطی که به زمان به عنوان بعد چهارم جنگ های جدید نگاه میشود بسیار حایز اهمیت است.
در این حیطه مثلا یک سیستم دفاع موشکی برای پاسخ گویی به یک استراتژی باید چنان با سرعت زیادی اطلاعات را رد و بدل کند که انسانها به عنوان تصمیم گیرندگان بی درنگ نتوانند با آن هم گام شوند.

شبکه های به هم مرتبط عصبی در جنگ فرا نوین
در جنگ جدید (فرا نوین- پست مدرن و….) شبکه های عصبی مصنوعی برای برقراری ارطباط بین تانکها و ناو ها و لانچرها و نیز وسایل ارطباطی فردی در جنگ نقش بی بدیلی را خواند داشت.
پروژه ای نیم بیلیون دلاری در ارتش ایالات متحده صرف شد تا برنامه ی محرمانه ی (retract maple) به بار نشیند و به فرمانهده ی ناو (یک) امکان دهد که اطلاعات راداری را از ناو (دو) بگیرد و موشکهای مستقر در ناو های (سه و چهار و…) را به طور خودکار مسلح و هدف گیری کند و سپس شلیک نماید.
سیستم مذکور فرمانده ی عملیات را قادر میسازد که بر تعداد زیادی نیروهای عملیاتی شامل تعداد زیادی کشتی، از رزمناو و ناو شکن گرفته به پایین را مورد بررسی و تحت نظارت داشته باشد.

از گذشته نه چندان دور تا آینده – ربوتها در جنگ دریایی و یا هوا زمینی
نیروی هوایی برای انجام امور جزئی نگهداری، تعمیر باند فرودگاه، اطفای حریق و تجهیز مجدد هواپیما در زمان زیر آتش قرار داشتن پایگاه از وجود روباتی به نام ماروین «marvin» بهره میگیرد.
نیروی زمینی نیز برای انجام هر نوع کاری، از تامین امنیت گرفته تا جمع آوری اجساد آلوده به مواد بیوشیمیایی دست به تولید روبات زده است.
به علاوه نیروی دریایی و هوایی در حال ساخت سیستمهای دور کار نیز هستند و در واقع بیشتر دستگاههایی که نظامیان آنها را روبات مینامند همین سیستمهای دورکارند که از مسافت دور کنترل می شوند.
بدین ترتیب مشاهده میشود که وجود انسان در این بین همواره ضرورت دارد.
ساخت بمب افکنهای B- 1 منوط به اجرای تعدادی برنامه ی تعمیراتی خودکار با استفاده از سیستم های خبره بود.
پروژه ای در نیروی هوایی ایالات متحده دنبال میشود با مخفف scpکه هدف از این پروژه ساخت کمک خلبان برنامه ی scpدر واقع تولید پنج سیستم خبره ی بهم پیوسته است که بتوانند در جریان عملیات پروازی یا در زمان جنگ به خلبان یاری رسانند.

سیستمهای خبره (هوش مصنوعی) در جنگ هوا زمینی و دریایی
نمودی دیگر از استفاده ی نظامی از سیستمهای خبره ساخت سیستم   مدیر جنگ هوا زمینی   است که دامنه ی عملکردش در خلال جنگ عمومی در حد سپاه و رده های پایین تر خواهد بود. وظیفه ی سیستم مزبور تلاش برای کسب هر گونه اطلاعات ممکن و نمایش هر نوع مطلبی است که طبق برنامه ریزی سیستم به کار افسران انسانی خواهد آمد.
این سیستم به نحوه ی طراحی شده که در نهایت قادر به پیش بینی اقدامات احتمالی دشمن و توصیه در مورد طریقه ی مقابله با آنها باشد.
سیستم مزبور حتی باید بتواند در تعیین نحوه ی استقرار نیروها و تصمیم گیری های لجستیک جهت اجرای نقشه های مورد نظر، نیز دخالت و سپس به طور خودکار اقدام به گزینش و چاپ فرمانها کند.
ایجیس یکی از این سیستمهای خبره است. این سیستم برای مدیریت جنگ استفاده میشود و اعتراضات فراوانی راد در پی داشته است.
این سیستم برای اداره ی جنگ جهانی چهارم ;بله تعجب نکنید جنگ چهارم.
این سیستم صد ها میلیون دلار از راه ساخت ماهواره میل استار (milstar) و ناواستار (navstar) و نیز هواپیماهای فرماندهی لوکینگ گلاس (looking glass) صرف خود کرده است.
این سیستم تسلیحاتی ساخته شده و فوق سری پیشرفته ترین سیستم تسلیحاتی ساخته شده تا به امروز است که به «ایجیس» موسوم شده است. (این گفته متعلق به سال 1996است)
« ایجیس» همان پروژه جنگ ستارگان است اما این دفعه در دریا. (یک دریا سالار امریکایی به نقل از چارز بنت) «charles e. bennet عضو کنگره آمریکا- – – cogress of the united state,1988,p. 16)
خوب من فکر میکنم «ایجیس» از بسیاری از جهات یک سیستم خبره است. در واقع این سیستم توانسته بسیاری از خطاهایی که حین بکار گیری سیستمهای خبره به وجود می آید رفع کند.
(دریادار وین مه یر (wayne mayer) ، مدیر پروژه ی «ایجیس»از 1970تا 1983)

خطا، هوش مصنوعی، اصلی غیر قابل انکار
در جریان عملیات بهار 1986 علیه لیبی، سیستم ضد هوایی ایجیس ناو «یورک تاون» (yorktown) آمریکا (متشکل از رادار مجهز به فرکانس مرحله ای (phased array radar) spy- 1، موشکهای هدایت شونده ی «استاندارد- 2» و توپهای فالانکس«phalanx»که همگی از طریق رایانه به هم متصل بودند تا «ایجیس»هم به طور خودکار و هم توسط نیروی انسانی قادر به کار باشد)
هدف ناشناخته ای را به صورت خودکار مورد شناسایی قرار داد. به دستور ناخدا دو فروند موشک کشتی به کشتی هارپون به سمت آن هدف ناشناس شلیک گردید و هدف ناپدید شد.
در ابتدا ادعا شد که آن یک کشتی گشت زنی بوده بعدها اعتراف شد که شاید یک تکه ابر کم ارتفاع بوده باشدو شاید هم یک کشتی ماهی گیری یا تفریحی.
نمونه قابل توجه دیگر این که ماجرای حمله ماه مه 1987 عراق با موشک اگزوست (exocet) به ناو استارک (stark) آمریکاست.
اگر چه استارک به سیستم «ایجیس) مجهز نبود، اما برخی از قطعات اصلی آن بر روی عرشه ی آن نصب شده بود. نکته ی قابل توجه آنکه سیستم توپ فالانکس کشتی (کهمتشکل است از توپهای 20 میلیمتری با قدرت شلیک 300 گلوله در دقیقه و رادار هدف گیری مستقل که در صورت قرار داشتن بر روی حالت خودکار قابلیت شلیک خودکار را داشت) موفق به کشف موشکهای شلیک شده نگردید.
حتی رادار کنترل آتش مارک 92 (mark 92) و حسگر راداری slq 032 این ناو نتوانستند به وجود موشکهای شلیک شده پی ببرند. اگر چه فالانکس بر روی سیستم خودکار نبوده ولی باید تهاجم را بر روی سیستم راداری خود نشان میداد و نزدیک شدن آن را با آژیر خطر اعلام میداشت که نکرد.

آخر اینکه
آدمواره ها میتوانند کارهایی بیش از جانشین خلبانان هلی کوپترهای شناسایی یا رانددگان تانک انجام دهند.
آنها افزون بر گرد آوری اطلاعات و پیدا کردن هدفها می توانند برای فریب دادن و مختل کردن و یا به اشتباه انداختن رادار دشمن کسب اطلاعات در باره ی خسارات به بار آمده و وارد شده و نیز جمع آوری و خنثی کردن کلاهکهای جنگی فعال تا تامین پشتیبانی تدارکات، عملیاتهایی در محیطهای آلوده (شیمیایی و میکروبی) مین روبی و تعمییر و یا ساخت سریع باندهای پروازی و پلها و خیلی بیش از آن در جنگها انجام دهند.
البته که ربوت شناسان و طراحان و مهندسان این بخش از احترام و نیز پیشرفتهای اخیر در زمینه ی هوش مصنوعی و واقعیت مجازی، قدرت و سرعت پردازش کامپیوتری وتکنولوژیهای کمک کننده در این وادی بسیار هیجان زده اند.
اما در بحث در این بخش که بعدا چه پیش خواهد آمد دچار تفرقه اند.
پرسشی که آنها را آشفته میدارد آن نیست که چگونه جنگ افزارهای خودکار را باهوش سازند، بلکه اینست که تا چه اندازه بگذارند باهوش شوند.