مقاله

مقالات موضوع هوش مصنوعی را اینجا می‌توانید بخوانید.

هوش مصنوعی

چرا تکنولوژی به استبداد می‌انجامد؟

سیاست و اقتصاد | اقتصاد و تکنولوژی | هوش مصنوعی

| هوش مصنوعی، می‌تواند بسیاری از مزایای عملی دموکراسی را از بین برده و آرمان‌های آزادی و برابری را نابود سازد. اگر ما قدمی برای متوقف کردن آن برنداریم، [تکنولوژی]، قدرت را به میزان بیشتری در یک نخبۀ کوچک، متمرکز خواهد کرد.

Yuval Noah Harari | theatlantic.com

نگرانیِ فزاینده از نامربوطی [احساس تعلق نداشتن]

هیچ چیز اجتناب‌ناپذیری در مورد دموکراسی، وجود ندارد. برای هر موفقیتی که دموکراسی در طول قرن گذشته یا قبل‌تر از آن، به دست آورده است، شواهد محکمی در طول تاریخ وجود دارد. سلطنت، الیگارشی [گروهه‌سالاری] و دیگر اشکال فرمانرواییِ قدرت‌طلبانه، رایج‌ترین شیوه‌های حکومت کردن انسان‌ها بوده‌اند. ظهور دموکراسی‌های لیبرال با [ظهور] آرمان‌های آزادی و برابری، همراه بوده، که ممکن است بدیهی و غیرقابل انکار به نظر برسد. اما این آرمان‌ها، بسیار شکننده‌تر از آن هستند که ما باور داریم. موفقیت آن‌ها در قرن بیستم به شرایط منحصربه‌فرد تکنولوژی بستگی داشت که زودگذر بود. در دهۀ دوم قرن بیست و یکم، لیبرالیسم شروع به از دست دادن اعتبار خود کرد. و نگرانی‌ها در مورد اینکه آیا دموکراسی لیبرال، قابلیت اجرا شدن در طبقۀ متوسط را دارد، بیشتر از قبل شد؛ سیاست‌ها قبیله‌ای شدند؛ و رهبرانِ بیشتر کشورها، به عوام‌فریبی و دیکتاتوری روی آوردند. دلایل این تغییر سیاسی، پیچیده هستند؛ اما به نظر می‌رسد که با پیشرفت‌های تکنولوژی کنونی، در هم تنیده و مرتبط باشند. تکنولوژی‌ای که طرفدار دموکراسی بود، در حال تغییر یافتن است و تا زمانی که هوش مصنوعی، در حال توسعه است، ممکن است بیشتر هم تغییر یابد.

فناوری اطلاعات، همچنان رو به جلو حرکت می‌کند؛ بیوتکنولوژی، شروع به باز کردن پنجره‌ای به زندگی درونی ما کرده است یعنی هیجان‌ها، افکار و انتخاب‌های ما. فناوری اطلاعات و بیوتکنولوژی با یکدیگر، انقلابی بی‌سابقه را در جوامع انسانی، بر پا خواهند کرد، قدرت عاملیت [فاعلیت] انسانی را از بین خواهند برد و احتمالاً تمایلات انسانی را نیز دگرگون می‌کنند.

ممکن است مردم عادی، هوش مصنوعی و بیوتکنولوژی را با جزییات درک نکنند؛ اما می‌توانند احساس کنند که آینده، آن‌ها را کنار خواهد گذاشت. در سال 1938، شرایط عمومی مردم در شوروی، آلمان و یا ایالات‌متحده، شاید خیلی اسفبار بود اما دائم به مردم گفته می‌شد که مهم‌ترین و باارزش‌ترین موجودِ این دنیا هستند و سازندۀ آیندۀ جامعه هستند. این مرد به پوسترهای پروپاگاندایی، نگاه می‌کرد (که معمولاً کارگرهای معدن و پولادگرها را با ژست‌های قهرمانانه نشان می‌داد) و خود را در کنار آن‌ها تجسم می‌کرد و می‌گفت: من هم، درون آن پوسترم! من قهرمان آینده‌ام!

در سال ۲۰۱۸، عموم مردم، احساس فزاینده‌ای از نامربوطی [بی‌تعلقی] را تجربه می‌کنند. عبارات عجیب‌وغریب زیادی را در سخنرانی‌های TED، در اتاق‌فکرهای دولت و در کنفرانس‌های فناوری پیشرفته می‌شنویم؛ مثل جهانی‌شدن، بلک‌چین، مهندسی ژنتیک، هوش مصنوعی، یادگیری ماشین و …؛ اما عموم مردم، چه مرد و چه زن، ممکن است که تردید زیادی داشته باشند در مورد اینکه به‌راستی، کدام‌یک از این عبارات، در مورد آن‌هاست.

در قرن بیستم، تودۀ مردم علیه استثمار قیام کردند و خواستند که نقش حیاتی خود در اقتصاد را به قدرت سیاسی تبدیل کنند. حالا تودۀ مردم از احساس بی‌تعلقی و نامربوطی می‌ترسند و در آستانۀ استفاده از قدرت سیاسی باقیمانده‌شان هستند، قبل از اینکه خیلی دیر شود. برکسیت (خروج بریتانیا از اتحادیه اروپا) و روی کار آمدن دونالد ترامپ، ممکن است نوعی اعتراض جنگ‌طلبانه به انقلاب‌های سوسیالیستی سنتی باشد. انقلاب‌های روسیه، چین و کوبا توسط مردمی رخ داد که برای اقتصاد، مهره‌ای حیاتی بودند اما قدرت سیاسی نداشتند؛ در سال ۲۰۱۶، ترامپ و برکسیت، توسط مردمی حمایت شدند که هنوز از قدرت سیاسی‌شان لذت می‌بردند اما می‌ترسیدند که ارزش اقتصادی‌شان را از دست بدهند. شاید در قرن 21، پوپولیست‌ها (عوام‌گراها)، علیه یک نخبۀ اقتصادی که مردم را استثمار می‌کند قیام نکنند؛ اما علیه یک نخبه اقتصادی قیام خواهند کرد که دیگر به آن‌ها [پوپولیست‌ها]، احتیاجی ندارد. البته احتمال زیادی هست که این جنگ را ببازند؛ [چون] جنگ علیه نامربوطی، بسیار سخت‌تر از جنگ علیه استثمار است.

انقلاب فناوری اطلاعات و بیوتکنولوژی، هنوز در مرحلۀ اولیه خود به سر می‌برد و بسط موضوع تا اینجا که آیا این‌ها، مسئول بحران کنونی لیبرالیسم هستند یا نه، جای بحث دارد. اکثر مردم در بیرمنگام، استانبول، سن‌پترزبورگ و میامی، خیلی کم از فناوری اطلاعات و بیوتکنولوژی، میزان پیشرفت هوش مصنوعی و تأثیر بالقوۀ آن در زندگی‌شان، آگاهند و یا اینکه اصلاً آگاهی ندارند. به‌هرحال، جای شکی نیست که با سرعتی که این دو حوزه در حال پیشرفت هستند، طی چند دهۀ آینده، بشریت را با چنان امتحانات و چالش‌هایی مواجه می‌سازند که تابه‌حال نمونۀ آن را ندیده‌اند.

 

طبقۀ اجتماعیِ جدید بی‌مصرف

اجازه دهید بحث را با مشاغل و درآمدها شروع کنیم، زیرا که چهرۀ فلسفی دموکراسی هر چه که باشد، قدرت وسیعش را از مزیت عملی خود، به دست آورده است: داشتن دیدگاه غیرمتمرکز [توزیعی] به تصمیم‌گیری (هم در سیاست و هم در اقتصاد)، به دموکراسی‌ها این قابلیت را داده است که همدیگر را به‌صورت خودکار، تکمیل کنند و دارایی و ثروت فزاینده‌ای را به مردمشان برسانند.

رشد اقتصادی، احتمال دارد که نتواند مشکلات اجتماعی‌ای ما را که این تحول تکنولوژیکی، به وجود آورده است، حل کند؛ زیرا چنین رشدی به میزان زیادی در [هنگام] ابداع بیشتر تکنولوژی‌های تحول‌آفرین، پیش‌بینی شده بود.

ترس از اینکه ماشین‌ها، افراد را از بازار کار، بیرون کنند چیز جدیدی نیست و در گذشته، ثابت شده بود که چنین ترس‌هایی، بی‌پایه و اساس است؛ اما هوش مصنوعی، با ماشین‌های قدیمی، فرق دارد. در گذشته، ماشین‌ها، اساساً در مهارت‌های یدی، توسط انسان‌ها تکمیل می‌شدند. اما اکنون، ماشین‌ها شروع به رقابت با ما در مهارت‌های شناختی کرده‌اند. و ما هیچ‌چیزی از هر نوع مهارت نوع سومی نمی‌دانیم (یعنی فرای مهارت‌های یدی و شناختی)، چون‌که در این زمینه، انسان‌ها همواره دارای حد نهایی و محدودیت هستند.

حداقل تا چند دهه بعد، احتمال دارد که هوش انسانی در بسیاری از زمینه‌ها، از هوش کامپیوتر، بسیار برتر باشد. یعنی تا زمانی که کامپیوترها مشاغل شناختیِ روتین‌تری را بر عهده دارند، مشاغلِ خلاقانۀ جدید برای انسان‌ها، پدید خواهد آمد. بسیاری از این مشاغل جدید، احتمالاً بستگی به مشارکت انسان‌ها و هوش مصنوعی دارد، بیشتر از اینکه به رقابت این دو، نیاز داشته باشد. و تیم‌های متشکل از انسان و هوش‌مصنوعی، احتمالاً نه‌تنها از انسان‌ها، بلکه از کامپیوترها هم، برتر است.

به‌هرحال، اکثر مشاغل جدید، احتمالاً به سطوح بالایی از تخصص و نبوغ، نیاز خواهند داشت و مسئلۀ کارگرانِ بی‌مهارتِ بیکار و یا کارگرانی را که با حقوق خیلی پایینی می‌توانند استخدام شوند حل نخواهد کرد. علاوه بر این، تا زمانی که هوش مصنوعی در حال توسعه است، ممکن است مشاغلی که هوش و نبوغ خیلی بالایی را نیاز دارند نیز، رفته‌رفته محو شوند. دنیای شطرنج، مثالی است از اینکه اوضاع ممکن است به چه سویی پیش برود. بعد از گذشت چندین سال، پس‌ازاینکه کامپیوتر شطرنج (دیپ بلو) شرکت آی‌بی‌ام، قهرمان شطرنج جهان، گری کاسپاروف را در سال 1997، شکست داد، شطرنج‌بازهای انسانی، هنوز در حال پیشرفت هستند و برای آموزش دادن نوابغ انسانی [شطرنج]، از هوش مصنوعی استفاده می‌شود و تیم‌های متشکل از انسان و کامپیوتر، بر کامپیوترهایی که به‌تنهایی بازی می‌کنند، برتری دارند.

در سال‌های اخیر، کامپیوترها درزمینۀ بازی شطرنج، چنان پیشرفت کرده‌اند که شریک انسانی‌ها آن‌ها، ارزشش را از دست داده است و ممکن است به‌زودی به فردی نامربوط، تبدیل شود. در ششم دسامبر 2017، اتفاق حیاتی دیگری رخ داد؛ زمانی که نرم‌افزار آلفای زیروی گوگل، نرم‌افزار استاک‌فیش ورژن ۸ را شکست داد. استاک‌فیش 8، در سال ۲۰۱۶، یک قهرمان شطرنج کامپیوتری را شکست داده بود. این نرم‌افزار [استاک‌فیش]، به قرن‌ها تجربۀ انسانی در شطرنج و دهه‌ها تجارب کامپیوتری، دسترسی داشته است. برعکس، به نرم‌افزار آلفازیرو، توسط خالقان انسانی‌اش، هیچ آموزش شطرنجی (حتی آموزش استانداردهای گشایش[1]) داده نشده بود. این نرم‌افزار، از آخرین اصول یادگیری ماشین استفاده کرده بود و خودش با بازی مقابل خودش، شطرنج را یاد گرفت. در ۱۰۰ بازی آلفازیرو در مقابل استاک‌فیش ۸، آلفازیرو، 28 بازی را برد و ۷۲ تا را مساوی کرد و حتی یک بازی را هم نباخت. ازآنجایی‌که آلفازیرو، هیچ‌چیزی را از یک انسان، نیاموخته است، بسیاری از حرکاتِ برنده و استراتژی‌هایش، برای انسان‌ها، غیرمعمولی است. این حرکات می‌توانند نوعی خلاقیت دیده شوند، اگر که نخواهیم آن‌ها را نبوغ خالص بدانیم.

آیا می‌توانید حدس بزنید که آلفازیرو چه مدت‌زمانی را صرف کرده است تا شطرنج یاد بگیرد، با استاک‌فیش 8 به رقابت بپردازد و غرایز نابغه‌گونه‌اش را توسعه دهد؟ چهار ساعت. برای قرن‌ها، شطرنج، یکی از افتخارات شکوهمندِ هوش انسانی محسوب می‌شد. آلفازیرو در چهار ساعت، بدون راهنمایی هیچ انسانی از ناآگاهی کامل به [درجۀ] استادی خلاقیت رسید.

آلفازیرو، تنها نرم‌افزار ساخته‌شده نیست. یکی از راه‌هایی که امروزه به‌وسیلۀ آن، متقلبان را در تورنمنت‌های شطرنج، تشخیص می‌دهند، نظارت بر درجۀ اصالتی هست که بازیکنان، نشان می‌دهند. اگر آن‌ها حرکت خلاقانۀ منحصربه‌فردی را اجرا کنند، داوران، مشکوک خواهند شد که این حرکت، حرکت یک کامپیوتر است و حرکت یک انسان نیست. حداقل، در بازی شطرنج، هم‌اکنون خلاقیت، مشخصۀ کامپیوترهاست تا انسان‌ها. پس اگر شطرنج، قناریِ معدن[2] ما است [ملاک ما برای احساس خطرِ جدی است]، ما به‌موقع، اخطار دادیم که قناری، در حال مردن است. اتفاقی که امروزه برای تیم‌های متشکل از انسان و هوش مصنوعی، در شطرنج افتاده است [بی‌استفاده شدن انسان]، ممکن است به‌زودی برای تمامی تیم‌های متشکل از انسان و هوش مصنوعی در زمینه‌های انتظامی (پلیسی)، پزشکی، بانکداری و بسیاری از زمینه‌های دیگر، رخ دهد.

دیگر اینکه هوش مصنوعی، دارای توانایی‌های منحصربه‌فرد غیرانسانی‌ است که این موضوع، تفاوت بین یک کارگر انسانی و هوش مصنوعی را بسیار فاحش می‌کند. دو مورد از توانایی‌هایِ اختصاصی و غیرانسانیِ مهمِ هوش مصنوعی، توانایی اتصال هم‌زمان (ارتباط هم‌زمان) و به‌روز شدن است. برای مثال، بسیاری از رانندگان، با قوانین عبور و مرورِ متغیرِ جاده‌هایی که در آن تردد دارند، آشنا نیستند و اکثراً آن‌ها را زیر پا می‌گذارند. علاوه بر این، ازآنجایی‌که هر راننده‌، هویتی منحصربه‌فرد دارد، هنگامی‌که دو راننده، به‌صورت هم‌زمان، به یک تقاطع می‌رسند، گاهی راننده‌ها، در تبادل قصد و نیت خود با یکدیگر، دچار سوءبرداشت می‌شوند و تصادف می‌کنند. در مقابل، ماشین‌های بدون سرنشین و خودران، تمام قوانین عبور و مرور را می‌دانند و هرگز به‌صورت آگاهانه، آن‌ها را زیر پا نمی‌گذارند و این قابلیت را دارند که به یکدیگر، متصل شوند. وقتی‌که دو خودروی بدون سرنشین، به یک تقاطع می‌رسند، در حقیقت، آن‌ها دو وجود یکتا ندارند و جزئی از یک الگوریتم هستند. بنابراین، احتمال اینکه آن‌ها دچار سوءبرداشت شوند و تصادف کنند، بسیار پایین‌تر است.

مشابه با موضوع بالا، اگر سازمان بهداشت جهانی (WHO)، یک بیماری جدید را شناسایی کند و یا یک آزمایشگاه، دارویی جدید را تولید کند، نمی‌توان سریعاً تمام دکترهای انسانی دنیا را به‌روز کرد. اما اگر شما میلیاردها دکترِ هوش مصنوعی [غیرانسانی] داشته باشید و هرکدام هم در حال نظارت بر وضعیت سلامت فردی خاص باشند، بازهم شما می‌توانید، تمامی آن‌ها را در کسری از ثانیه، آپدیت کنید. و تمامی آن‌ها قادر خواهند بود تا ارزیابی‌هایشان را در مورد دارو و بیماری جدید، با یکدیگر تبادل کنند. این مزیت‌های بالقوه در ارتباط و آپدیتِ هم‌زمان، این‌قدر مهم هستند که حداقل در بعضی از بخش‌های برخی مشاغل، منطقی به نظر می‌رسد که تمامی انسان‌ها را با کامپیوترها، جایگزین کنیم، حتی اگر بعضی از انسان‌های آن بخش، کارشان را بهتر از کامپیوترها انجام دهند.

 

همان تکنولوژی‌ای که ممکن است میلیاردها انسان را ازنظر اقتصادی، نامربوط کند، ممکن است کاری کند تا آن‌ها (این انسان‌های نامربوط‌شده) را راحت‌تر بتوان نظارت و کنترل کرد.

همه این‌ها به نتیجه‌ای خیلی مهم منجر می‌شود: انقلاب اتوماسیون (خودکارسازی)، تنها یک نقطۀ عطف و تاریخی نیست که در بازار کار، تعادلی جدید را به وجود آورد، بلکه سلسله‌مراتبی از تحولات بزرگ‌تر است. مشاغل قدیمی، محو می‌شوند و مشاغل جدید، پدیدار می‌شوند اما این مشاغل جدید نیز، به‌سرعت، تغییر می‌کنند و ناپدید می‌شوند. افراد، مجبورند نه یک‌بار، بلکه بارها و بارها خود را بازآموزی کنند.

 

انقلاب اتوماسیون (خودکارسازی)، تنها یک نقطۀ عطف و تاریخی نیست که در بازار کار، تعادلی جدید را به وجود آورد، بلکه سلسله‌مراتبی از تحولات بزرگ‌تر است. مشاغل قدیمی، محو می‌شوند و مشاغل جدید، پدیدار می‌شوند اما این مشاغل جدید نیز، به‌سرعت، تغییر می‌کنند و ناپدید می‌شوند. افراد، مجبورند نه یک‌بار، بلکه بارها و بارها خود را بازآموزی کنند.

 

در همین قرن گذشته، دولت‌ها یک سیستم آموزشی کلان را برای افراد جوان، اجرا کردند. در قرن ۲۱، دولت‌ها، احتیاج پیدا خواهند کرد تا سیستم دیگری را نیز برای بازآموزی بزرگ‌سالان اجرا کنند. اما آیا این کافی خواهد بود؟ تغییر، همیشه استرس‌آور است و دنیای گیج‌کنندۀ قرن بیست و یکم، یک وضعیت استرس‌آورِ همه‌گیر جهانی را ایجاد کرده است. به هر میزانی که احتمال نابودی شغل، بالا برود، آیا بازهم مردم، قادر به مقابله هستند؟ تا سال 2050، ممکن است یک طبقۀ [اجتماعی] بی‌استفاده شکل بگیرد؛ نه‌تنها به علت کمبود شغل یا عدم وجود تحصیلات مرتبط، بلکه به علت اینکه توانایی ذهنی کافی برای یادگیری مهارت‌های جدید، وجود نخواهد داشت.

 

 

افزایش دیکتاتوری‌های دیجیتال

زمانی که افراد، ارزش اقتصادی خود را از دست می‌دهند، ممکن است که قدرت سیاسی خود را هم از دست بدهند. همان تکنولوژی‌ای که ممکن است میلیاردها انسان را ازنظر اقتصادی، نامربوط کند، ممکن است باعث شود تا انسان‌ها را راحت‌تر بتوان نظارت و کنترل کرد. هوش مصنوعی، افراد زیادی را ترسانده است؛ زیرا انسان‌ها نمی‌توانند اطمینان داشته باشند که هوش مصنوعی برای همیشه، تابع خواهد ماند. فیلم‌های علمی‌تخیلی، در میزانی که کامپیوترها و ربات‌ها، ممکن است آگاهی‌شان را افزایش دهند، اغراق می‌کنند و اندکی پس‌ازآن [افزایش آگاهی]، سعی خواهند کرد تا تمام انسان‌ها را بکشند. علت خاصی وجود ندارد که بتوان باور کرد که هوش مصنوعی هرچقدر باهوش‌تر شود، توانایی آگاهی‌اش هم بالاتر می‌رود. ما باید از هوش مصنوعی بترسیم چون‌که احتمالاً همیشه از اربابان انسانی‌اش تبعیت خواهد کرد و هرگز شورش نخواهد کرد. هوش مصنوعی یک وسیله و ابزار است اما شبیه آن‌هایی که تا به حال، انسان‌ها ساخته‌اند نیست؛ آن، قطعاً به افراد قدرتمند، این توانایی را خواهد داد که قدرت خود را مستحکم‌تر کنند.

 

تا سال 2050، ممکن است یک طبقۀ [اجتماعی] بی‌استفاده شکل بگیرد؛ نه‌تنها به علت کمبود شغل یا عدم وجود تحصیلات مرتبط، بلکه به علت اینکه توانایی ذهنی کافی برای یادگیری مهارت‌های جدید، وجود نخواهد داشت.

 

سیستم‌های نظارتی را در نظر بگیرید. کشورهای زیادی در سرتاسر دنیا، مشغول ساخت سیستم‌های نظارتی بی‌نظیری هستند. برای مثال، رژیم صهیونیستی که پیشگام تکنولوژی نظارت است، در کرانۀ باختری رود اردن، نمونۀ اولیۀ در حال اجرایی را از یک رژیم نظارت همگانی، ساخته است. امروزه اگر فلسطینی‌ها، یک تماس تلفنی بگیرند، چیزی را در فیس‌بوک بنویسند، پست کنند یا از یک شهر به شهر دیگری سفر کنند، احتمالاً در حال نظارت شدن با میکروفن‌ها، دوربین‌ها، پهپادها و یا نرم‌افزارهای جاسوسی هستند. الگوریتم‌ها، دیتای جمع‌آوری‌شده را آنالیز می‌کنند و به نیروهای امنیتی اسراییل کمک می‌کنند تا با دقت بالایی، آنچه را که تهدیدی بالقوه در نظر می‌گیرند، مشخص و نابود کنند. فلسطینی‌ها شاید مدیریت چند شهر و روستا را در کرانۀ باختری رود اردن، در اختیار داشته باشند، اما این رژیم اشغالگر است که آسمان، رسانه‌ها و فضای سایبری را در اختیار دارد. به طرز شگفت‌آوری [سیستم نظارتی اسراییل]، تعداد خیلی کمی سرباز اسراییلی نیاز دارد تا به‌طور مؤثری، تقریباً دو و نیم میلیون فلسطینی ساکن در کرانۀ باختری رود اردن را کنترل کند.

در یک اتفاق، در اکتبر سال 2017، یک کارگر فلسطینی، عکسی را از خودش، کنار یک بولدوزر در محل کارش، در صفحۀ شخصیِ فیس‌بوکش منتشر کرد. او در کپشن عکسش نوشت: «صبح‌به‌خیر!». الگوریتم ترجمۀ فیس‌بوک، زمانی که حروف عربی را ترجمه می‌کرد، یک خطای کوچک را مرتکب شد و لغت Ysabechhum که به معنی صبح‌به‌خیر است را Ydbachhum  که به معنی به آن‌ها آسیب بزن است، تشخیص داد. سیستم نظارتی، فکر کرده بود که او قصد دارد با بولدوزر از روی اسرائیلی‌ها، رد شود. نیروی امنیتی اسرائیل، سریعاً او را دستگیر کرد و زمانی که متوجه شدند در الگوریتم، یک خطا رخ داده است، او را آزاد کردند. حتی پست او از روی فیس‌بوک، پاک شد. هرگز نمی‌توانید بیش‌ازحد، مراقب باشید. آنچه فلسطینی‌ها اکنون در کرانۀ باختری رود اردن تجربه می‌کنند ممکن است فقط پیش‌نمایشی اولیه از آن چیزی باشد که میلیاردها انسان درنهایت، در سرتاسر سیاره، تجربه خواهند کرد.

 

 ” ما باید از هوش مصنوعی بترسیم چون‌که احتمالاً همیشه از اربابان انسانی‌اش تبعیت خواهد کرد و هرگز شورش نخواهد کرد. هوش مصنوعی یک وسیله و ابزار است اما شبیه آن‌هایی که تا به حال، انسان‌ها ساخته‌اند نیست؛ آن، قطعاً به افراد قدرتمند، این توانایی را خواهد داد که قدرت خود را مستحکم‌تر کنند.

 

برای لحظه‌ای تجسم کنید که رژیم کنونی در کرۀ شمالی به ورژن پیشرفته‌تری از این تکنولوژی دست یابد. ممکن است مردم مجبور شوند گردنبند بیومتریکی را بپوشند تا بر هر چیزی که انجام می‌دهند، می‌گویند، فشارخون و فعالیت‌های ذهنی‌شان نظارت شود. با استفاده از دانش فزاینده در مورد ذهن انسان و استفاده از قدرت بی‌نظیرِ یادگیری ماشین، حکومت کرۀ شمالی ممکن است درنهایت، قادر شود تا هر چیزی که هر شهروندی در هرلحظه‌ای به آن می‌اندیشد را بسنجد و قضاوت کند. اگر یک کره‌ای به‌عکس کیم جونگ اون نگاه کند و سنسورهای بیومتریکیِ خبرچین، نشانه‌هایی از خشم را ثبت کنند (فشارخون بالاتر و افزایش فعالیت در آمیگدالا)، احتمالاً آن فرد، روز بعد در گولاگ[3] خواهد بود.

 

تعارض بین دموکراسی و دیکتاتوری، [تعارض بین دو سیستم اخلاقی متفاوت نیست بلکه] درواقع، تعارض بین دو سیستم پردازش داده است. هوش مصنوعی، ممکن است بازی را به نفع دیکتاتوری، تغییر دهد.

هنوز استفاده از چنین تکنیک‌های سفت و سختی، علناً ثابت نشده است. هنوز یک نمای ظاهری از انتخاب آزاد و رأی دادن آزاد، ممکن است در بعضی از کشورها، باقی مانده باشد و عموم مردم، کمتر به‌طور واقعی، کنترل شوند. مطمئناً تلاش برای دستکاری احساسات رأی‌دهندگان، چیز جدیدی نیست، اما روزی که کسی در سانفرانسیسکو، پکن یا مسکو توانایی دستکاری قلب (اراده) انسان‌ها را به‌صورت قابل‌اعتماد و ارزان، پیدا کند، [آن روز] سیاست‌های دموکراتیک، به یک نمایش عروسکی احساسی، تبدیل خواهد شد.

در دهه‌های پیش رو، احتمالاً با شورش ماشین‌های بااحساس، روبه‌رو نخواهیم شد؛ اما احتمالاً مجبور خواهیم شد تا با ارتشی از ربات‌ها مقابله کنیم که بهتر از مادرمان می‌دانند که چگونه دکمه‌های کنترل احساس ما را فشار دهند. آن‌ها از این تواناییِ کنترل عجیب‌وغریب را تحت فرمانِ انسانی نابغه، استفاده خواهند کرد با هدف اینکه، چیزی مثل یک ماشین، سیاست‌مدار یا ایدئولوژی را به ما بفروشند. این ربات‌ها احتمالاً عمیق‌ترین ترس‌ها، نفرت‌ها و امیال ما را تشخیص خواهند داد و از آن‌ها علیه ما استفاده خواهند کرد. ما یک چشمه (پیش‌نمایشی) از این کار را در انتخابات و رفراندوم‌های اخیر در سراسر دنیا دیدیم، وقتی‌که هکرها توانستند اطلاعات کاربران را آنالیز کنند و از پیش‌داوری‌های آن‌ها برای تغییر دادن رأیشان، سوءاستفاده و بهره‌برداری کنند. فیلم‌های علمی تخیلی، آخرالزمان‌هایی را نمایش می‌دهند که غرق در آتش و دود است، اما ما احتمالاً در واقعیت، با آخرالزمانی معمولی روبه‌رو هستیم که باید با کلیک کردن، با آن مواجه شویم.

بزرگ‌ترین و وحشتناک‌ترین تأثیر انقلاب هوش مصنوعی، ممکن است کارآمدی نسبی دموکراسی‌ها و یا دیکتاتوری‌ها باشد. از دیدگاه تاریخی، دیکتاتورها، برای ایجاد نوآوری و تحول اقتصادی، با مشکل مواجه بوده‌اند. در اواخر قرن بیستم، دموکراسی‌ها، از دیکتاتوری‌ها، عملکرد بهتری داشتند؛ چون‌که در پردازش اطلاعات، خیلی سرآمدتر بودند. ما تمایل داریم که تعارض بین دموکراسی و دیکتاتوری را تعارض بین دو سیستم اخلاقی ببینیم؛ اما درواقع، این تعارض، بین دو سیستم متفاوت پردازش داده است. دموکراسی، قدرت را در پردازش اطلاعات، توزیع می‌کند و تصمیم‌گیری‌ها توسط مردم و مؤسسات انجام می‌شود، درحالی‌که دیکتاتوری، اطلاعات و قدرت را در یک مکان، متمرکز می‌کند. با توجه به وضعیت تکنولوژی در قرن بیستم، اینکه این مقدار از قدرت و اطلاعات، در یکجا، متمرکز شود، کارآمد نبود. هیچ‌کس این توانایی را نداشت که همۀ اطلاعات موجود را با سرعت کافی، پردازش کند و تصمیمات درستی را اتخاذ کند. این، یکی از دلایلی است که شوروی، تصمیمات خیلی بدتری را نسبت به ایالات‌متحده، اتخاذ کرد و اقتصادش به‌شدت از آمریکا، عقب افتاد.

به‌هرحال، هوش مصنوعی ممکن است به‌زودی، نتیجه را به نفع دیکتاتوری، تغییر دهد. هوش مصنوعی، این را امکان‌پذیر می‌سازد که حجم بالایی از اطلاعات، به‌طور متمرکز، پردازش شود. در حقیقت، هوش مصنوعی، ممکن است سیستم‌های متمرکزی را ایجاد کند که از سیستم‌های پراکنده، بسیار کارآمدتر باشند، به علت اینکه سیستم یادگیری ماشین، عملکرد بهتری دارد نسبت به سیستمی که اطلاعات زیادی را باید پردازش کند. اگر شما تمام نگرانی‌های مربوط به حریم خصوصی را کنار بگذارید و تمام اطلاعات موجود در مورد یک میلیارد انسان را در یک دیتابیس، ذخیره کنید، الگوریتم‌های خیلی بهتری را خواهید داشت نسبت به زمانی که به حریم خصوصی احترام بگذارید و در دیتابیستان، اطلاعات جزئیِ یک‌میلیون انسان را ذخیره کنید. یک حکومت دیکتاتوری که به تمام شهروندانش دستور می‌دهد تا اطلاعات مربوط به توالی DNA و داده‌های پزشکی‌شان را با مقام مرکزی، به اشتراک بگذارند، منفعت بی‌پایانی را درزمینۀ تحقیقات پزشکی و ژنتیک، خواهد برد؛ چون‌که اطلاعات پزشکی شهروندان، اطلاعاتی کاملاً شخصی هستند. نقص بزرگ رژیم‌های دیکتاتوری در قرن بیستم که نمی‌توانستند تمام اطلاعات و قدرت را در یک مکان، متمرکز کنند، ممکن است در قرن بیست و یکم، رفع شود.

تکنولوژی‌های جدید، ظهور خواهند کرد و البته برخی از آن‌ها ممکن است که توزیع اطلاعات و قدرت را به‌جای تجمیع آن، تشویق کنند. تکنولوژی بلک‌چین و استفاده از ارز رمزی (دیجیتال) که به‌وسیلۀ آن به وجود آمد، در حال حاضر به‌عنوان وزنۀ تعادلی برای [جلوگیری] از تمرکز قدرت، عمل می‌کند. اما تکنولوژی بلک‌چین، هنوز در مراحل ابتدایی خود به سر می‌برد و معلوم نیست که می‌تواند وزنۀ تعادلی مناسبی برای تمایل هوش مصنوعی (متمرکز کردن قدرت) باشد یا نه. به یاد دارید که اینترنت هم، در روزهای ابتدایی‌اش، یک نوشداروی طرفدار آزادی بود که می‌خواست مردم را از همۀ سیستم‌های متمرکز، رها کند؛ اما حالا به ابزاری سمی تبدیل شده است که در حال قدرتمندتر کردن مقام مرکزی، بیش از هر زمان دیگری است.

 

 

یک حکومت دیکتاتوری که به تمام شهروندانش دستور می‌دهد تا اطلاعات مربوط به توالی DNA و داده‌های پزشکی‌شان را با مقام مرکزی، به اشتراک بگذارند، منفعت بی‌پایانی را درزمینۀ تحقیقات پزشکی و ژنتیک، خواهد برد؛ چون‌که اطلاعات پزشکی شهروندان، اطلاعاتی کاملاً شخصی هستند. نقص بزرگ رژیم‌های دیکتاتوری در قرن بیستم که نمی‌توانستند تمام اطلاعات و قدرت را در یک مکان، متمرکز کنند، ممکن است در قرن بیست و یکم، رفع شود.

 

تفویض (انتقال) قدرت به ماشین‌ها

حتی اگر بعضی از جوامع، به‌ظاهر دموکرات مانده باشند، افزایش کارآمدی الگوریتم‌ها، هنوز هم قدرت بیشتری را روزبه‌روز از انسان‌ها گرفته و به ماشین‌های شبکه‌شده، منتقل می‌کند. ممکن است ما به‌عمد و هوشیارانه، اختیار بیشتری را از خودمان گرفته و به ماشین‌ها بدهیم؛ چون‌که براثر تجربه، یاد گرفته‌ایم که به الگوریتم‌ها بیشتر از احساسات خودمان، اعتماد کنیم؛ که [این وضعیت]، درنهایت باعث می‌شود توانایی‌مان را در بسیاری از تصمیم‌گیری‌ها از دست بدهیم. به فرایند این تغییر، لحظه‌ای فکر کنید. در کمتر از دو دهه، میلیاردها انسان به الگوریتم سرچ گوگل، اعتماد کردند و یکی از بزرگ‌ترین وظایف را به او سپردند: جستجوی اطلاعات مرتبط و قابل‌اطمینان. تا زمانی که ما برای یافتن پاسخ‌هایمان، بیشتر و بیشتر بر گوگل، تکیه کنیم، توانایی ما برای اینکه اطلاعات را به‌صورت مستقل، ذخیره‌سازی کنیم، کاهش می‌یابد. امروزه، معنای واژۀ «اعتماد»، به‌وسیلۀ نتایج برتر جستجوی گوگل، تعیین می‌شود. این فرایند، همچنین، توانایی‌های فیزیکی ما را نیز تحت‌تأثیر قرار داده است.، مثل هدایتگرهای مسیر. مردم، از گوگل می‌خواهند که نه‌تنها برایشان اطلاعات را جستجو کند، بلکه می‌خواهند که آن‌ها را در امور مختلف، هدایت هم بکند. ماشین‌های خودران و پزشکانی که با هوش مصنوعی، طراحی شده‌اند، این مسئله را با وضوح بیشتری به ما نشان می‌دهند: علاوه بر اینکه، این ابتکارات، راننده‌ها و پزشک‌های انسانی را بیکار می‌کند، پیامد بدتر آن‌ها این است که به‌طور مداوم در حال تفویض اختیارات و مسئولیت‌ها به ماشین‌هاست.

انسان‌ها عادت کرده‌اند که به زندگی، به‌عنوان درامای [میدان] تصمیم‌گیری، نگاه کنند. دموکراسی، انسان‌ها را عاملانی خودمختار می‌داند که دائم در حال تصمیم‌گیری در مورد دنیا هستند. دنیای هنر را در نظر بگیرید، نمایشنامه‌های شکسپیر، رمان‌های جین آستن یا کمدی‌های دل‌چسب هالیوودی، اکثراً همگی، حول محور قهرمانی می‌چرخند که باید تصمیمات حیاتی‌ای را بگیرد. بودن یا نبودن (انجام دادن یا ندادن)؛ به حرف همسرم گوش فرا دهم و پادشاه دانکن را به قتل رسانم یا اینکه به ندای وجدانم گوش دهم و او را ببخشایم؟؛ با آقای کولینز ازدواج کنم یا آقای دِرسی؟. در ایدئولوژی‌های مسلمانان و مسیحی‌ها، بر روی تصمیم‌گیری، تأکید می‌شود و سعادت غایی در زندگیِ جاویدان، به انتخاب‌های درست، بستگی دارد. برای این ایدئولوژی، چه اتفاقی می‌افتند وقتی‌که ما هرروزه بیشتر بر هوش مصنوعی تکیه می‌کنیم تا تصمیمات بیشتری را به‌جای ما بگیرد؟ حتی همین‌الان هم، به پیشنهادهای نت‌فلیکس، اعتماد می‌کنیم تا به ما سریال پیشنهاد بدهد و از اسپاتیفای می‌خواهیم تا موزیک‌های موردعلاقۀ ما را جمع‌آوری کند. اما آیا میزان تأثیرگذاری هوش مصنوعی، به همین‌جا ختم می‌شود؟

هرساله، میلیون‌ها دانشجو، نیاز به تصمیم‌گیری دارند که چه رشته‌ای را ادامه دهند. این یک تصمیم خیلی مهم و سخت است که باید در زیر فشار والدین، دوستان، و اساتیدی که علایق و نظرات گوناگونی دارند، گرفته شود. این تصمیم، توسط ترس‌های شخصی دانشجو و فانتزی‌هایش که توسط فیلم‌ها، رمان‌ها و تبلیغات، شکل گرفته‌اند نیز، تحت تأثیر قرار می‌گیرد. مسائلی هستند که موضوع را پیچیده‌تر می‌کنند، مثل‌اینکه فرد نمی‌داند چه رشته‌ای را باید انتخاب کند تا در شغل آینده‌اش موفق باشد یا اینکه به‌طور واقع‌بینانه، نقطه‌های قوت و ضعفش را نمی‌شناسد. زیاد دور نخواهد بود روزی که هوش مصنوعی، نسبت به از ما تصمیمات بهتری را درزمینۀ شغل، و حتی روابط، اتخاذ کند؛ اما زمانی که ما قدرت تصمیم‌گیری درزمینۀ اینکه چه رشته‌ای را بخوانیم، کجا کار کنیم، با چه کسی قرار رمانتیک بگذاریم و حتی این را که با چه کسی ازدواج کنیم به دست هوش مصنوعی بدهیم؛ زندگی انسانی، دیگر میدان تصمیم‌گیری‌ها نیست و ما مجبور خواهیم شد که دیدگاه و برداشتمان را نسبت به زندگی، تغییر دهیم. به همین نسبت، انتخابات دموکراتیک، اقتصاد بازارآزاد و همچنین، بیشتر مذاهب و کارهای هنری نیز، از بین خواهد رفت. تصور کنید آنا کارنینا، گوشی تلفن همراهش را دست گرفته و از دستیار سیری (SIR)، می‌پرسد که با کارنین بماند یا اینکه با ورونسکی فرار کند؟ یا اینکه نمایشنامۀ موردعلاقه خود از شکسپیر را تصور کنید که تمام تصمیمات سخت آن، توسط الگوریتم گوگل گرفته می‌شود. هملت و مکبث، زندگی بهتری را خواهند داشت؛ اما این چه نوع زندگی‌ای خواهد بود؟ آیا شما مدلی را برای ارائه دارید که چنین زندگی‌هایی، منطقی به نظر برسد؟

آیا پارلمان‌ها و جلسات سیاسی، می‌توانند به این چالش‌ها غلبه کنند و سناریوهای تاریک آینده را پیش‌بینی کنند؟ در حال حاضر که چنین چیزی، محتمل به نظر نمی‌رسد. تحول تکنولوژیکی، در برنامه‌های سیاسی، اصلاً موضوع مهمی نیست. در طی رقابت‌های انتخاباتی در سال ۲۰۱۶، نهاد مسئول تحول تکنولوژیکی، دغدغه‌اش مسائلی بود که هیلاری کلینتون با استفاده از ایمیل شخصی‌اش درست کرده بود و علی‌رغم تمام صحبت‌هایی که در مورد از دست دادن مشاغل و … شد، هیچ کاندیدایی به‌طور مستقیم به تأثیرات سیاسی، اتوماتیک‌سازی امور، اشاره نکرد. دونالد ترامپ به رأی‌دهندگان هشدار داد که مشاغل مکزیکی‌ها باید حفظ شود و آمریکا باید دیواری را در مرز جنوبی خودش، بنا کند. او هرگز به رأی‌دهندگان هشدار نداد که الگوریتم‌ها هستند که مشاغل آن‌ها را خواهند گرفت و اینکه حتی پیشنهاد نداد که فایروالی (دیوارۀ آتشی) را به دور کالیفرنیا، بنا کند.

با این اوضاع، چه کاری از ما ساخته است؟ برای شروع، ما باید مطالعۀ در مورد اینکه ذهن انسان چگونه کار می‌کند را در اولویت خیلی بالاتری قرار دهیم. در مورد اینکه چگونه می‌توان خرد و شفقت موجود در ما را تولید کرد. اگر ما درزمینۀ هوش مصنوعی خیلی زیاد سرمایه‌گذاری کنیم و برای توسعۀ ذهن انسان، خیلی کم؛ آن موقع ممکن است کامپیوترهای هوش مصنوعی که خیلی پیچیده هستند، تنها برای قدرتمندتر کردن حماقت طبیعی انسان‌ها، و بدترین و شاید قدرتمندترین تکانه‌های ما مثل تکانۀ حرص و نفرت، به کار گرفته شوند. برای اجتناب از چنین پیامدی، به ازای هر دلار و دقیقه‌ای که برای بهبود هوش مصنوعی، سرمایه‌گذاری می‌کنیم، باید عاقل باشیم و یک دلار و یک دقیقه را هم برای کاوش و توسعۀ هوشیاری انسان‌ها، سرمایه‌گذاری کنیم.

به‌طور عملی‌تر و سریع‌تر، اگر ما می‌خواهیم که از متمرکز شدن این‌همه ثروت و قدرت در دست‌های یک نخبۀ کوچک، جلوگیری کنیم، باید حق مالکیت داده‌ها را تعدیل کنیم. در زمان باستان، زمین، مهم‌ترین دارایی بود؛ به همین دلیل سیاست‌مداران به دنبال کنترل زمین‌ها بودند؛ در عصر مدرن، کارخانه‌ها و ماشین‌آلات، از زمین مهم‌تر شدند؛ به همین دلیل، سیاست‌مداران تلاش‌هایشان را بر روی کنترل این ابزارهای ارزشمند تولید، متمرکز کردند. در قرن ۲۱، دیتاها، ارزشمندتر از زمین و ماشین‌آلات شده‌اند؛ بنابراین سیاستمداران در حال جنگیدن برای جمع‌آوری داده‌ها و جلوگیری از انتشار آن هستند.

متأسفانه ما تجربه لازم درزمینۀ تعدیل مالکیت داده‌ها را نداریم، چون‌که این کار، در ذات خود، بسیار سخت‌تر از تعدیل مالکیت زمین و ماشین‌آلات است. دیتا می‌تواند در آن واحد، در همه‌جا باشد و در هیچ جا نباشد؛ می‌تواند با سرعت نور، حرکت کند؛ می‌توانید از آن‌ها هر تعداد کپی که می‌خواهید، تهیه کنید. دیتایی که در مورد دی‌ان‌ای من، زندگی من و مغز من، جمع‌آوری شده است به من تعلق دارد یا به دولت، یک مؤسسه یا مجموع انسان‌ها؟

مسابقه جهت جمع‌آوری داده‌ها، هم‌اکنون شروع شده است و غول‌هایی همچون گوگل، فیس‌بوک و در چین، بایدو و تنسنت، از بقیه جلوتر هستند. بسیاری از این کمپانی‌ها مثل «تاجران توجه» هستند، آن‌ها توجه ما را به‌وسیلۀ اطلاعات، خدمات و سرگرمی‌های رایگانی که برای ما فراهم می‌کنند، به دست می‌آورند، و این توجه کسب‌شده را به تبلیغ‌دهندگان می‌فروشند. البته، تجارت واقعی آن‌ها، فروش آگهی نیست، بلکه با به دست آوردن توجه ما، آن‌ها مقدار بی‌پایانی از داده‌های تجمعی را در مورد ما به دست می‌آورند که خیلی ارزشمندتر از فروش آگهی است. ما مشتریان آن‌ها نیستیم، ما کالاهای آن‌ها هستیم.

مردم عادی، مقاومت در مقابل این فرایند را خیلی دشوار می‌دانند. در حال حاضر، بسیاری از ما بسیار خوشحال هستیم که باارزش‌ترین دارایی‌مان (داده‌های شخصی‌مان) را ازدست‌داده‌ایم و در عوض آن به سرویس‌های رایگان ایمیل و ویدیوهای خنده‌دار در مورد گربه‌ها رسیده‌ایم. اما اگر از این به بعد، همین مردم عادی تصمیم بگیرند که جلوی نشر داده‌هایشان را بگیرند، قطعاً با مشکل، روبه‌رو خواهند شد؛ چراکه، ممکن است آن‌ها به شبکه‌ها (اینترنت)، متکی باشند برای اینکه به آن‌ها در تصمیم‌گیری، کمک کند. حتی این وابستگی ممکن است درزمینۀ سلامتی و زنده ماندن نیز، باشد.

ملی‌سازی داده‌ها توسط حکومت‌ها، می‌تواند یک راه‌حل باشد. این روش، قطعاً قدرت کمپانی‌های بزرگ را کاهش می‌دهد. اما تاریخ، ثابت کرده است که ما در دستان مقتدر حکومت‌ها نیز، وضعیت بهتری را نخواهیم داشت؛ بنابراین بهتر است که توجه دانشمندان، فیلسوف‌ها، وکیل‌ها و حتی شاعران‌مان را به این سؤال بزرگ، جلب کنیم و از آن‌ها بپرسیم: چگونه، حق مالکیت داده‌ها را تعدیل کنیم؟

در حال حاضر، این ریسک وجود دارد که انسان‌ها، مثل حیوان‌های خانگی شوند. ما گاوهایی را پرورانده‌ایم که مقدار زیادی شیر می‌دهند اما از نیاکان وحشی خود، بسیار پست‌تر و تحت‌فرمان‌ترند. آن‌ها، کنجکاوی و چابکی خیلی کمتری را دارند. ما در حال تولید انسان‌های رام‌شده‌ای هستیم که مقادیر زیادی داده تولید می‌کنند و عملکردشان مثل چیپ‌های کارآمد، در درونِ یک ماشینِ تحلیل‌گر داده است؛ اما با سختی بسیار پتانسیل انسانی خود را به حداکثر می‌رسانند. اگر که مراقب نباشیم، به مشابه کامپیوترهای قدیمی و ناکارآمدی می‌شویم که با کامپیوترهای جدید، جایگزین شده‌اند و بار سنگینی برای خودشان و دنیا هستند.

اگر دیدگاه‌های ارائه‌شده [در این مقاله] را هشداردهنده و آگاهی‌بخش، یافتید، اگر از زندگی در یک دیکتاتوری دیجیتالی و یا یک جامعه پست، متنفر هستید، بیشترین همکاری‌ای که می‌توانید بکنید این است که راه‌هایی را پیدا کنید که از اینکه حجم بالایی از داده‌ها، در دستان افراد خیلی اندکی جمع شود، جلوگیری کند؛ و همچنین، راه‌هایی را پیدا کنید که سیستم پردازش دادۀ توزیع‌شده نسبت به سیستم پردازش دادۀ متمرکز، برتری یابد و این برتری، حفظ شود. این‌ها، اهداف ساده‌ای نیستند اما رسیدن به آن‌ها، ممکن است بهترین محافظ دموکراسی باشد.

[1] به مجموعه حرکات ابتدای بازی شطرنج گفته می‌شود که هدف از آن گسترش اولیه نیروها و ورود آنان به کارزار است.

[2] در زمان‌های قدیم برای آگاهی یافتن از میزان متان و کربن مونوکسید در معدن‌ها، قناری‌ای را با خود به معدن می‌بردند و اگر میزان، این مقادیر در هوا زیاد بود، قناری زودتر از اینکه این مقادیر به حد بحرانی و خطرناک برسند، می‌مرد.

[3] اداره کل اردوگاه‌های کار و اصلاح که سرواژه آن به زبان روسی واژه «گولاگ» را تشکیل می‌داد، نام نهادی بود که اردوگاه‌های کار اجباری در نواحی دورافتاده اتحاد جماهیر شوروی از قبیل سرزمین سردسیر و یخبندان سیبری و استپ‌های قزاقستان، بیابان‌های ترکمنستان را در زمان حکومت ژوزف استالین اداره می‌کرد.

سیستم اعتبار اجتماعی چین

سیستم اعتبار اجتماعی چین حقیقت ندارد

سیاست و اقتصاد | اقتصاد و تکنولوژی | هوش مصنوعی

| در حال حاضر یک سیستم واحد برای ارزیابی و امتیازدهی در چین هنوز به عنوان یک دغدغه به حساب نمی‌آید.

JAMIE HORSLEY ، Foreignpolicy.com

دوربین‌های امنیتی هوش مصنوعی که از فناوری تشخیص چهره بهره می‌برند در چهاردهمین نمایشگاه بین‌المللی ایمنی و امنیت عمومی چین به نمایش درآمده است.

«اعتبار اجتماعی» چین، که برای نخستین بار در سراسر جهان از سیستم داده‌ها سرچشمه گرفته، سیستم هشدار صوتی است. در سخنرانی 4 اکتبر، معاون رئیس‌جمهور ایالات متحده، مایک پنس، این فناوری را به عنوان «یک سیستم اورولین(ظالمانه) مبتنی بر کنترل تقریبی تمام جنبه‌های زندگی بشر» توصیف کرد. اما یک مشکل کوچک وجود دارد. این سیستم حقیقتا وجود خارجی ندارد، حداقل به این صورت کلی که به تصویر کشیده است.

تعجب آور نیست که افسانه‌ها و اسطوره‌های بسیاری در مورد این سیستم در حال گسترش هستند؛ اسطوره‌هایی که برطبق آنها چین می‌تواند جامعه‌ی مدنی، حقوق قانونی، سخنرانی‌ها، خبرنگاری تحقیقاتی، و عقاید مذهبی را تحت الشعاع خود قرار دهند. این سیستم نوعی سیستم گسترده‌ی نظارتی است که همه جا را تحت کنترل درمی‌آورد و حزب کمونیست چین بر استفاده از هوش مصنوعی گسترده در دستگاه‌های دولتی تأکید دارد. دولت چین در حال جمع‌آوری اطلاعات گسترده‌ای از شهروندان است، و سیستم اعتبار اجتماعی در داخل و خارج چین نگرانی‌های شدیدی به همراه دارد. اما برخلاف روایت رسانه‌ها، مقامات چین قادر نیستند امتیاز مشخصی به این سیستم بدهند که تعیین کننده‌ی تمام جنبه‌های زندگی شهروندی باشد. حداقل تا کنون نتوانسته‌اند.

 

درست است که بر اساس نوآوری‌های پیشین، شورای دولتی چین یک نقشه‌ی راه را در سال 2014 برای ایجاد یک سیستم گسترده‌ی اعتبار اجتماعی منتشر کرد که بتواند تا پیش از سال 2020 سیستم «اعتبار اجتماعی» دور از دسترس را پایه‌گذاری کند. مفهوم اعتبار اجتماعی (shehui xinyong) در مدارک دولتی چین تعریف نشده است، اما ماهیت آن مطابق با ملزومات قانون اجتماعی، اقتصادی و قراردادی است. هدف اصلی این سیستم این است که با بهره‌گیری از اطلاعات جمع‌آوری شده‌ی متنوع و سیستم‌های تبلیغاتی در سطوح مختلف حکومتی  وضعیت حکمرانی و نظارت صحیح بر بازار را بهبود بخشد، آن هم در کشوری که همچنان کلاهبرداری و تقلب در آن وجود دارد.

با این سیستم، تمام سازمان‌های دولتی در تمام بخش‌ها، قسمت‌ها، و مناطق تحت کنترل قرار خواهند گرفت و با جمع‌آوری اطلاعات عمومی مبتنی بر قوانین و مقررات ویژه، قوانین و موافقت‌نامه‌های مشخص شده، تمام افراد، شرکت‌ها، سازمان‌های اجتماعی، نهادهای دولتی، و سیستم قضایی نظارت خواهند شد. مجرمان خطرناک ممکن است در لیست سیاه قرار گرفته و بر اساس پلتفرمی ملی به نام تأمین چین تحت فشار شدید حکومتی قرار گیرند. این امور اغلب توسط سازمان‌های مختلف تحت مجوزهای اداری شامل مالیات، محیط زیست، حمل و نقل، تجارت الکترونیک، ایمنی صنایع غذایی و مشارکت‌های اقتصادی خارجی و همچنین عدم اجرای تصمیمات دادرسی، به اجرا درمی‌آیند.

اینگونه مجازات اغلب برای ترویج موارد قانونی تحت شعار «هرکس قوانین را نقض کند، همه جا با محدودیت مواجه خواهد شد» تکرار شده‌اند. از سوی دیگر «لیست قرمز» نیز از طرف تأمین چین منتشر شده و در اختیار عموم قرار خواهد گرفت که در آن افراد قابل اعتماد را مشخص شده‌اند.

دامنه، مقیاس، تنوع، و زبان در حال گسترش سیستم باعث ایجاد سردرگمی‌های بسیاری شده است، به ویژه در مورد وجود امتیاز اعتبار اجتماعی واحد. چیزی به عنوان «امتیاز اعتبار اجتماعی» ملی وجود ندارد. چند شهرک و شهر در چین، همچنین تعدادی از شرکت‌های خصوصی، برنامه‌هایی نظیر این برای مشتریان خود اعمال کرده‌ اند که از طریق برنامه‌هایی خاص به آن‌ها امتیاز می‌دهد. همین مسئله نیز به بخشی از سردرگمی دامن می‌زند. به عنوان مثال، برنامه‌ی اعتباری‌مالی آنت که از سیستم عامل‌های گوناگون و قابل دسترس بهره می‌برد، اغلب به عنوان پیشگام برنامه ریزی دولتی شناخته می‌شود؛ در حالی که این برنامه صرفا در حد یک شرکت خصوصی است.

دولت تمامی کدهای مربوط به اعتبار اجتماعی را به شرکت‌ها و سازمان‌هایی اختصاص می‌دهد که برای ثبت نام، پرداخت مالیات، و سایر خدمات از کد شناسایی استفاده کنند؛ در حالی که هر کدام از این افراد کد ملی مشخصی دارند. لیست‌های سیاه از این کدهای شناسایی که تقریبا برای تمام فعالیت‌ها در چین کاربرد دارند استفاده می‌کنند. اما این کدها ربطی به امتیاز و درجه بندی ندارند. شرکت‌ها و نهادهای مختلف ممکن است بر اساس مشارکت‌های اقتصادی و قوانین مشخص درجه بندی شوند. با این حال، سیستم اعتبار اجتماعی نمی‌تواند به خودی خود اعتبار اجتماعی «خوب» یا «بد» را ایجاد کند. در عوض، افراد و شرکت‌هایی که جرائم بزرگ نظیر کلاهبرداری و آلودگی شدید محیط زیست را در کارنامه‌ی خود دارند در لیست سیاه قرار می‌گیرند. برای اطمینان بیشتر، چین حقوق مدنی را به گونه‌ای تنظیم می‌کند که مجرمان با محدودیت روبرو شوند و استفاده از سیستم اعتبار اجتماعی این امر را محقق خواهد می‌سازد.

 

شرکت‌ها و نهادهای مختلف ممکن است بر اساس مشارکت‌های اقتصادی و قوانین مشخص درجه بندی شوند. با این حال، سیستم اعتبار اجتماعی نمی‌تواند به خودی خود اعتبار اجتماعی «خوب» یا «بد» را ایجاد کند. در عوض، افراد و شرکت‌هایی که جرائم بزرگ نظیر کلاهبرداری و آلودگی شدید محیط زیست را در کارنامه‌ی خود دارند در لیست سیاه قرار می‌گیرند.

 

سیستم گزارش اعتبار چین، که گزارش‌های مالی‌اش جزء اصلی «اعتبار اجتماعی» محسوب می‌شود، ممکن است به گسترش این اسطوره کمک کرده باشد. نخستین مشکل این سیستم این است که اصطلاح چینی گزارش اعتباری (xinyong zhengxin) اغلب به صورت «امتیازدهی اعتباری» ترجمه می‌شود. با این حال، سیستم گزارشی اعتبار مالی برای افراد و شرکت‌های تحت نظارت بانک مرکزی جمهوری خلق چین (PBOC) نمی‌تواند بر اساس استاندارد «امتیازدهی»، اعتبار تخصیص دهد. مرکز اعتبار مالی بانک مرکزی خلق چین، مانند مؤسسات اعتباری خصوصی، امتیاز اعتبار مالی (xinyong pingfen) ارائه می‌دهد.

برنامه‌هایی که به طور گسترده اعتبار ادارات خصوصی، مانند شرکت مالی آنت را گزارش می‌دهند، تعاملات اقتصادی را به عنوان تاریخچه‌ای از امتیاز مشتری در نظر می‌گیرند. بانک مرکزی خلق چین در نظر دارد پوشش اعتباری مشتریان خود را با استفاده از دریافت اطلاعات از طریق اینترنت و سایر منابع غیرسنتی گسترش دهد. در سال 2015، هشت شرکت مجاز، که بعضی از آن‌ها برنامه‌های اعتباری مشتریان خود را کنترل می‌کردند، مجوز خود را تمدید کردند. هیچ کدام از این شرکت‌ها واجد شرایط نبودند.

با این وجود، بانک مرکزی جمهوری خلق چین در سال جاری، به یک مؤسسه‌ی ملی به نام اعتبار بایهانگ (Baihang Zhengxin) ، به عنوان سهامدار در کنار هشت شرکت، مجوز داد تا گزارش خدمات اعتباری را به مشتریان ارائه دهد و اطلاعات دقیق وام دهندگان اینترنتی را جمع‌آوری کند. بایهانگ ممکن است امتیاز اعتباری محصولات را ارائه دهد، اما این امتیازات، با اطلاعاتی که بر اساس آن به دست می‌آیند، همچنان در تناقض است.

بیشتر بخوانید:  آیا تلفن هوشمند، بخشی از وجود ماست؟

دومین مشکل بزرگ این است که این سیستم اعتبار اجتماعی داده‌های تک تک شهروندان را جمع‌آوری می‌کند. دولت اطلاعات قانونی تمام شرکت‌ها و سازمان‌ها را جمع‌آوری می‌کند و نهادهای گوناگون از پرونده‌های افراد مختلف نگهداری می‌کنند. برخی از این داده‌ها و اطلاعات عمومی  بر اساس سیستم اعتبار اجتماعی‌فرهنگی هستند. با این وجود، در حال حاضر، اولویت سیستم درجه بندی به اشتراک گذاشتن داده‌های عمومی، اطلاعات قانونی، و تصمیم گیری‌های ناعادلانه‌ی قضایی در بخش‌های کلیدی است. اطلاعات اشخاص فعلا در این برنامه کنترل نمی‌شوند، مگر افرادی که تنها مالک و تنها نماینده‌ی شرکت‌ها باشند، وام یا کارت اعتباری دریافت کرده باشند، قوانین را نقض کرده باشند و یا در دادگاه مجرم شناخته شده باشند.

 

در حال حاضر، اولویت سیستم درجه بندی به اشتراک گذاشتن داده‌های عمومی، اطلاعات قانونی، و تصمیم گیری‌های ناعادلانه‌ی قضایی در بخش‌های کلیدی است. اطلاعات اشخاص فعلا در این برنامه کنترل نمی‌شوند، مگر افرادی که تنها مالک و تنها نماینده‌ی شرکت‌ها باشند، وام یا کارت اعتباری دریافت کرده باشند، قوانین را نقض کرده باشند و یا در دادگاه مجرم شناخته شده باشند.

 

سومین خطای رایج باور به این مسئله است که رفتار اجتماعی، عادات مصرف و وفاداری سیاسی بر اعتبار اجتماعی تأثیر گذاشته و مبنایی برای اعمال مجازات قرار می‌گیرند. این باور نادرست نیز، مجددا، از برنامه‌های پاداش دهی شرکت‌های خصوصی، که رفتار تجاری مشتریان را مبنای امتیاز قرار می‌دهند، نشأت می‌گیرند. اسناد دولتی، مقررات حکومتی و مجازات‌هایی که تا کنون بر اساس استانداردهای ویژه منتشر شده‌اند، برای انطباق با قوانین و مقرراتی که توسط سیستم اعتبار اجتماعی به اجرا درمی‌آیند با تناقض روبرو هستند.

نگرانی‌های قانونی بسیاری وجود دارد. بخش وسیعی از داده‌هایی که جمع‌آوری و به اشتراک گذاشته شده‌اند خطر هک شدن و درز کردن اطلاعات شخصی را افزایش می‌دهد. امنیت اطلاعات مشکلی بزرگ در چین است. در نظرسنجی اخیر، 85 درصد از پاسخ‌دهندگان از درج اطلاعات حساب بانکی و شماره‌ تلفن اظهار نارضایتی کردند. اعتبار اجتماعی ملی و محلی و سایر اسناد و مدارک، برای حفظ حریم خصوصی و افزایش امنیت اطلاعات، ضروری هستند. با این وجود، چین هنوز از عدم وجود قانونی برای حفظ حریم خصوصی، و یا توانایی اجرای آن، رنج می‌برد.

استفاده‌ی عمومی سیستم اعتبار اجتماعی از لیست سیاه، که یکی از محققان آن را «مکانیسم‌های شهرت» می‌نامد، در کنار مکانیسم مجازات مشترک که ذاتا یکی دیگر از لایه‌های اجرای مجازات برای جرایم قانونی است، مشکل ساز و بحث برانگیز است. استانداردهای قرارگیری در لیست سیاه، که توسط ادارات گوناگون و در سطوح مختلف اجرا می‌شوند، همیشه حوزه‌ی اجرای قضایی مشخصی ندارند. اهداف همواره مشخص نیستند و این مسئله فرصتی برای رقابت در این لیست را ایجاد می‌کند.

بعضی از افراد که در لیست سیاه قرار دارند، حتی پس از پرداخت بدهی‌ها و گذراندن دوران محکومیت خود، همچنان با محدودیت‌هایی مواجه خواهند بود. مثلا شخصی که از ارائه‌‌ی اطلاعات به بانک برای دریافت کارت اعتباری خودداری می‌کند و یا دانشجویی که برای نپرداختن بدهی وام دانشجویی ادعا می‌کند پدرش توان مالی ندارد، در این لیست جای خواهند گرفت. راه‌اندازی چنین سیستم گسترده‌، پیچیده و کارآمدی که بتواند اشتباهات را کاهش دهد با چالش‌های فنی بسیاری همراه است.

خطری که دولت چین با آن مواجه است تلاش برای ایجاد سیستم جهانی امتیاز شهروندی و شروع استفاده از الگوریتم‌های مبهم برای تعیین اعتبار برای اهداف مختلف سیاسی، مالی و نظارتی است. چین مجازاتی نظیر اعلان تظاهرات، گسترش شایعات در فضای مجازی، و بلند کردن «ریش غیرمتعارف» در سینکیانگ را اعمال می‌کند و سیستم اعتبار اجتماعی می‌تواند مجازات مربوط به اینگونه جرائم را تحت کنترل قرار دهد. با این وجود، دولت چین از ابزارهای دیگری برای رسیدگی به امور امنیت عمومی و سیاسی بهره می‌برد. علاوه بر این، با در نظر گرفتن استانداردهای متنوعی که برای ارزیابی قانونی و ورود به لیست سیاه وجود دارند، استفاده از سیستم اعتبار اجتماعی چالشی بزرگ در سطح جهانی را به دنبال دارد.

در حال حاضر یک سیستم واحد برای ارزیابی و امتیازدهی در چین هنوز به عنوان یک دغدغه به حساب نمی‌آید.

هوش مصنوعی

آیا تلفن هوشمند، بخشی از وجود ماست؟

سیاست و اقتصاد | اقتصاد و تکنولوژی | هوش مصنوعی

| اگر گوشی شما بخشی از هویت شما باشد، پس احتمالاً باید بیشتر شبیه جسد خود تا یک وسیله با آن رفتار کنید. بنابراین اگر کسی گوشی هوشمند شما را بشکند و محتوای آن را پاک کند، شاید مجرمان باید همانگونه مجازات شوند که گویی آسیب به سر رسانده اند.

:Karina Vold، Aeon

آیا تمام ماهیت شما فقط در محدوده جسم شما قرار دارد یا گوشی هوشمندتان نیز بخشی از وجود شما را تشکیل می‌دهد؟

در نوامبر سال ۲۰۱۷، مردی مسلح وارد کلیسای شهر سادرلند اسپرینگ (Sutherland Spring) در ایالت تگزاس شد. او ۲۶ نفر را کشت و۲۰ نفر دیگر را زخمی ‌کرد. مرد، سوار بر اتومبیل خود از محل گریخت و تحت تعقیب شدید پلیس و ساکنان منطقه قرار گرفت تا اینکه کنترل خود را از دست داد و به داخل گودالی پرتاب شد. زمانی که  پلیس به محل اتومبیل رسید، او مرده بود.  این اپیزود بدون پایان ناخوشایند آن به اندازه کافی می‌تواند دلهره آور باشد. طبق گزارشات، درجریان تحقیقات FBI، آنها انگشت مرد مسلح را برروی سنسور تشخیص اثر انگشت آیفون او فشار دادند تا قفل آن را باز کنند.

صرف نظر از اینکه چه کسی تحت تاثیر قرارگرفته،‌ این نگران کننده است که پلیس از یک جسد برای نفوذ به فضای مجازی دیجیتالی فردی پس از مرگ او استفاده کند. بیشتر قوانین اساسی یک حکومت دموکراتیک، از ذهن و جسم ما در برابر نفوذهای ناخواسته محافظت می‌کند. آن‌ها همچنین به حقوق ما در آزادی اندیشه و حفظ حریم شخصی ارج می‌نهند. به همین دلیل است که داروهای شیمیایی مغز واعصاب که عملکردهای شناختی را مختل می‌سازند، نمی‌توانند بر خلاف اراده‌ی فرد به کار روند مگر این که یک توجیه پزشکی روشن وجود داشته باشد. به طور مشابه، طبق نظر پژوهشگران، ماموران اجرای قانون نمی‌توانند فردی را وادار به انجام تست دروغ سنج نمایند؛ چراکه این می‌تواند تجاوز به حریم شخصی و نقض حق سکوت باشد.

اما در دوران تکنولوژی رو به گسترش عصر حاضر،‌ فلاسفه در حال طرح این سوال هستند که آیا حقیقتاً این تنها آناتومی ‌زیستی بدن است که تمامیت وجود ما را تشکیل می‌دهد و با توجه به نقشی که تکنولوژی در زندگی ما ایفا می‌کند، آیا وسائل ما سزاوار حمایت‌هایی مشابه با مغز و بدن ما نیستند؟

بیشتر بخوانید:  ماشین‌های بدون راننده باید چه کسی را بکشند؟

به هر حال، گوشی هوشمند شما خیلی بیشتر از یک گوشی کارآیی دارد. گوشی شما می‌تواند بهتر از یک دوست صمیمی‌ به شرح خصوصیات شما بپردازد. هیچ قطعه سخت افزار دیگری در تاریخ، حتی مغز شما قابلیت اینگونه نگهداری کمی ‌و کیفی اطلاعات موجود در گوشی شما را ندارد. گوشی شما می‌داند با چه کسی حرف می‌زنید، چه چیزی می‌گویید، کجا هستید،‌ خریدهای شما،‌ عکس‌ها، اطلاعات بیولوژیکی، حتی نوشته‌های شما برای خودتان را و تمام اینها به سال‌ها قبل برمی‌گردد.

در سال ۲۰۱۴، دادگاه عالی ایالات‌ متحده از این مشاهده برای توجیه این تصمیم که پلیس باید قبل از جستجو در گوشی‌های هوشمند ما دارای مجوز باشد، استفاده کرد. این وسایل «درحال حاضر، بخشی فراگیر و پرتقاضا از زندگی روزمره ما را تشکیل می‌دهند؛ به طوری که مریخی‌های معروف ممکن است به این نتیجه برسند که آنها(گوشی‌های هوشمند) ویژگی مهمی ‌از آناتومی‌ بدن انسان بودند»، چیزی که رئیس دادگاه،  قاضی جان رابرتز (John Roberts) در عقیده نوشتاری خود عنوان کرده بود.

رئیس دادگاه، احتمالاً یک موضوع متافیزیک و پیچیده خلق نکرده؛ اما زمانی که فلاسفه، اندی کلارک (Andy Clark) و دیوید چالمرز( David Chalmers)  با نظریه «ذهن گسترش‌ یافته» (۱۹۹۸) بر سر این موضوع که  تکنولوژی واقعاً بخشی از وجود ما را تشکیل می‌دهد، بحث می‌کردند‌ به نکته ای پیچیده اشاره کردند. بر اساس علوم شناختی سنتی، «تفکر» فرآیندی است از دستکاری نمادها یا محاسبات عصبی که توسط مغز انجام می‌گیرد. کلارک  و چالمرز به طور گسترده این نظریه محاسباتی ذهن را پذیرفتند، اما ادعا کردند که این ابزارها می‌توانند به آسانی با چگونگی تفکر ما یکپارچه شوند. اشیائی مانند گوشی‌های هوشمند یا نوت‌پدها،  اغلب از نظر کارایی به همان اندازه که سیناپس‌ها در سر ما فعال می‌شوند، برای ادراک ما ضروری هستند. آنها با افزایش قدرت شناختی ذهن و آزاد سازی منابع داخلی، ذهن ما را تقویت و گسترده می‌سازند.

اگر نظریه  «‌ذهن گسترش یافته» پذیرفته شود، فرضیات گسترده فرهنگی درمورد ماهیت نقض نشده اندیشه به خطر می‌افتند؛ چیزی که در قلب بسیاری از هنجارهای قانونی و اجتماعی قرار دارد. همانطور که دیوان عالی ایالات متحده در سال 1942 اعلام کرد: «آزادی در فکر کردن در ذات خود مطلق است». ظالمانه ترین دولت در کنترل و نظارت بر فعالیت‌های درونی ذهن ناتوان است. این دیدگاه ریشه در نظرات متفکرانی همچون جان لاک و  رنه دکارت دارد،‌ کسانی که استدلال می‌کنند، روح انسان در یک جسم فیزیکی قفل شده است؛ اما افکار ما در دنیایی غیرمادی و غیرقابل دسترس برای دیگران است. بنابراین زندگی درونی هر شخص زمانی نیاز به محافظت دارد که  مثلاً  از طریق گفتار برون‌زایی شود.  بسیاری از محققان علوم شناختی هنوز هم به این مفهوم دکارتی وفادار هستند که در حال حاضر فقط  قلمرو خصوصی حوزه تفکر است که با فعالیت مغزی منطبق می‌باشد.

اما نهادهای حقوقی امروزه در برابر این مفهوم کوته فکرانه به سختی تلاش می‌کنند. آنها می‌کوشند تا به درکی  درباره چگونگی تغییر فناوری، معنای انسان بودن و ایجاد مرزهای جدید هنجاری برای روبرو شدن با این واقعیت برسند. قاضی رابرتز ممکن است درمورد ایده ذهن گسترش یافته شناخت نداشته باشد؛ اما این نظریه از مشاهده غیرعادی او درباره گوشی‌های هوشمند که به بخشی از جسم ما تبدیل شده اند، پشتیبانی می‌کند. اگر در حال حاضر، ذهن ما شامل گوشی‌های ما نیز شود، ما اساساً سایبورگ‌ها ( انسان مکانیکی) هستیم:  بخشی  زیستی،  بخشی تکنولوژی.

با توجه به این که گوشی‌های هوشمند ما بیش از آن چیزی که زمانی وظایف  مغزهایمان بود، انجام می‌دهند، در به یادآوری داده‌ها، شماره تلفن‌ها، آدرس‌ها، شاید داده‌هایی که آنها نگه می‌دارند باید با اطلاعاتی که در سر نگه می‌داریم یکسان تلقی شوند.  بنابراین اگر هدف قانون حفظ حریم شخصی است، باید مرزهای آن به بیرون هل داده شود تا به آناتومی ‌سایبورگی ما همان حفاظتی را دهد که به مغزهایمان داده می‌شود.

بیشتر بخوانید:  انقلاب عاشقانه در زمانه تکنولوژی

این خط از استدلال منجر به برخی از نتایج بالقوه افراطی می‌شود. برخی از فیلسوفان، این موضوع را که بعد از مرگ، دستگاه های دیجیتال ما باید به عنوان بقایای جسم ما باقی بمانند، مورد بحث قرار داده اند. اگر گوشی شما بخشی از هویت شما باشد، پس احتمالاً باید بیشتر شبیه جسد خود تا یک وسیله با آن رفتار کنید.  به همین ترتیب، ممکن است شخصی استدلال کند که دور انداختن تلفن هوشمند شخص دیگری می‌تواند به عنوان یک “تجاوز” بزرگ، معادل با ضربه به سر تلقی شود و نه فقط تخریب اموال. اگر حافظه شما بر اثر حمله با یک چماق پاک شود، دادگاه هیچ مشکلی برای عنوان کردن این اتفاق به عنوان یک حادثه خشونت آمیز ندارد. بنابراین اگر کسی گوشی هوشمند شما را بشکند و محتوای آن را پاک کند، شاید مجرمان باید همانگونه مجازات شوند که گویی آسیب به سر رسانده اند.

 

برخی از فیلسوفان، این موضوع را که بعد از مرگ، دستگاه های دیجیتال ما باید به عنوان بقایای جسم ما باقی بمانند، مورد بحث قرار داده اند. اگر گوشی شما بخشی از هویت شما باشد، پس احتمالاً باید بیشتر شبیه جسد خود تا یک وسیله با آن رفتار کنید.  به همین ترتیب، ممکن است شخصی استدلال کند که دور انداختن تلفن هوشمند شخص دیگری می‌تواند به عنوان یک “تجاوز” بزرگ، معادل با ضربه به سر تلقی شود و نه فقط تخریب اموال.

 

نظریه ذهن گسترش یافته همچنین نقش قانون را در حفاظت از محتوا و ابزار تفکر که همان حفاظت از نحوه تفکر ما در برابر تاثیرات بیجاست به چالش می‌کشد. قوانین، مانع دخالت غیر توافقی در نروشیمی ‌بدن ما می‌شوند (به عنوان مثال از طریق داروها)؛ چراکه در محتوای ذهن ما دست برده می‌شود. اگر شناخت و اندیشه‌های ذهنی، دستگاه‌ها را نیز در بر گیرند، پس مسلماً آنها نیز تابع همین محدودیت‌ها باید باشند. شاید برخی از تکنیک‌هایی که تبلیغ کنندگان به صورت آنلاین برای ربودن توجه ما، جهت ترغیب تصمیم گیری ما و یا دست بردن در نتایج جستجو استفاده می‌کنند باید به عنوان نفوذ در فرآیند شناختی ما شمرده شوند.

به طور مشابه، در مواردی که قوانین ابزارهای تفکر را محافظت می‌کنند، ممکن است دسترسی به تضمین در استفاده از ابزارهایی مانند گوشی‌های هوشمند نیز نیاز باشد. به همین شیوه  که آزادی بیان از حق مردم نه فقط برای نوشتن یا صحبت کردن محافظت می‌کند، بلکه همچنین باید برای استفاده از رایانه‌ها و انتشار گفتار در اینترنت نیز استفاده شود.

دادگاه‌ها هنوز هم تا رسیدن به چنین تصمیماتی فاصله دارند. علاوه بر موارد اصلی تیترهای خبری در تیراندازی‌های جمعی، هر ساله هزاران نمونه وجود دارند که در آن مقامات پلیس سعی می‌کنند به دستگاه‌های رمزنگاری شده دسترسی پیدا کنند. اگرچه اصلاحیه پنجم قانون اساسی ایالات‌ متحده از حق افراد برای حفظ سکوت محافظت  می‌کند (و بنابراین رمز عبور داده نمی‌شود)، قضات در چندین ایالت حکم کرده‌‌اند که پلیس می‌تواند به زور از اثر انگشت برای باز کردن قفل تلفن کاربر استفاده کند. (با ویژگی جدید تشخیص چهره روی آیفون X، پلیس تنها ممکن است به یک کاربر بی‌خبر برای نگاه کردن به تلفن خود نیاز داشته باشد). این تصمیمات منعکس‌ کننده این مفهوم سنتی هستند که حقوق و آزادی‌‌های فردی در محدوده پوست فرد به پایان می‌رسد.

اما مفاهیم حقوق و آزادی‌های شخصی که موسسات حقوقی ما را هدایت می‌کنند، کهنه و قدیمی ‌شده اند. این حقوق بر اساس مدل یک فرد آزاد ساخته شده اند که از یک زندگی درونی غیرقابل دسترس لذت می‌برد. به هر حال،  امروزه افکار ما می‌توانند حتی قبل از اینکه پیشرفتی داشته باشند، مورد تجاوز قرار گیرند و به شکلی، شاید این چیز جدیدی نباشد. ریچارد فاینمن (Richard Feynman) فیزیکدان برنده جایزه نوبل می‌گوید که با نوت بوکش فکر می‌کند. بدون خودکار و مداد، یک بازتاب و تحلیل پیچیده  خوب هیچ گاه امکان پذیر نخواهد بود. اگر دیدگاه ذهن گسترش یافته درست باشد، حتی فناوری‌های ساده مانند این نوت بوک‌ها، شایسته تشخیص و محافظت شدن به عنوان بخشی ضروری از جعبه ابزار ذهن هستند.

ماشین خودران

ماشین‌های بدون راننده باید چه کسی را بکشند؟

سیاست و اقتصاد | اقتصاد و تکنولوژی | هوش مصنوعی

| اگر شما پشت فرمان ماشینی باشید که در حال تصادف است، ترجیح می‌دهید با تعدادی گربه تصادف کنید یا تعدادی کودک؟ حال، انتخاب ماشین‌های خودران چه باید باشد؟

:Vice – Tracey Lindeman

طبق یک نظرسنجی گسترده، ماشین‌های بدون راننده در موقعیت‌های اجتناب ناپذیرِ تصادف در مقابل افراد جوان و سالمند، باید از جوان‌تر‌ها دوری کنند.

در “آزمایش ماشین اخلاقی” در میان بیش از 2 میلیون شرکت کننده از 233 کشور، مردم ترجیح دادند که انسان‌ها را در مقابل حیوانات، جوان‌تر‌ها را در مقابل سالمندان و تعداد آدم بیشتر در مقابل تعداد کمتر را نجات دهند.

اگر شما پشت فرمان ماشینی باشید که در حال تصادف است، ترجیح می‌دهید با تعدادی گربه تصادف کنید یا تعدادی کودک؟ ترجیح می‌دهید با برخورد به یک مانع بتنی، خود و دیگر سرنشینان ماشین را بکشید و یا تعدادی سالمند را که در حال عبور از خیابان هستند؟

اگر به جای افراد سالمند، یک خانم باردار به همراه یک کودک بود چطور؟ و یا دو مجرم؟ و یا سه فرد بی خانمان؟ و یا تعدادی رییس تجاری؟

این‌ها تعدادی از سوال‌هایی است که افراد تیم تحقیقاتی ادموند ایواد، فوق دکترای دانشگاه ام.آی.تی، سعی کردند در مقاله جدیدشان به نام “آزمایش ماشین اخلاقی” به آن‌ها پاسخ دهند که در مجله “نیچر” چاپ شد. هدف تحقیق این بود که بررسی کنند از نظر مردم، خودروهای خودران (بدون سرنشین)، اگر و وقتی نیاز بود، چگونه باید تصمیم بگیرند که چه کسی را بکشند؟ تحقیق آن‌ها بر اساس پاسخ بیش از 2 میلیون شرکت کننده از 233 کشور مختلف است.

بیشتر بخوانید:  ربات‌ها چگونه دردسرساز می‌شوند؟

تیم تحقیقاتی ایواد متوجه شدند که در اکثر مواقع، مردم ترجیح می‌دهند که انسان‌ها را در مقابل حیوانات، جوان‌تر‌ها را در مقابل سالمندان و تعداد آدم بیشتر در مقابل تعداد کمتر را نجات دهند. البته در مواردی مردم طبق فرهنگشان جواب متقاوتی برای اولویت نجات افراد می‌دادند.

به عنوان مثال، مردمی که در آمریکای لاتین زندگی می‌کردند ترجیح می‌دادند افراد جوان تر را نجات دهند در حالی که افرادی که در آسیا زندگی می‌کردند پاسخشان برعکس این افراد بود. با این حال، به نظر می‌رسد بیشتر افراد ترجیح می‌دهند که افراد پیاده در حال عبور را نجات دهند تا سرنشینان خودرو، و یا نجات افرادی را که قانونمند هستند بر افرادی که بدون استفاده از پل هوایی یا خط کشی خیابان از آن عبور می‌کنند ارجح می‌دانستند. به جز در کشورهای فقیرتر که راننده‌ها عموما در مقابل اینجور افراد صبورتر هستند.

 

در اکثر مواقع، مردم ترجیح می‌دهند که انسان‌ها را در مقابل حیوانات، جوان‌تر‌ها را در مقابل سالمندان و تعداد آدم بیشتر در مقابل تعداد کمتر را نجات دهند. البته در مواردی مردم طبق فرهنگشان جواب متقاوتی برای اولویت نجات افراد می‌دادند.

 

پاسخ افراد شرکت کننده توسط ماشین اخلاقی در یک نظرسنجی طراحی شده توسط ایواد در سال 2016 ثبت می‌شدند تا محققان بتوانند ابتدایی‌ترین غریزه کشتن را در ما بررسی کنند.

بازی ماشین اخلاقی شبیه مسئله ترولی (مسئله تراموا) است که البته مشهور هم نیست (و یا به عبارتی آیا یک نفر را می‌کشید که پنج نفر را نجات دهید؟)، که البته برای خودروهای خودران سنجیده می‌شوند. عظیم شریف، که در نوشتن این مقاله همکاری کرده است و یکی از محققان کانادا در زمینه روانشناسی اخلاقی در دانشگاه کلمیبا است، در یک مصاحبه عنوان کرده است که راننده‌ها در موقعیت‌های خطرناکی مانند این‌ها، از روی غریزه واکنش نشان می‌دهند در حالی که ماشین‌های خودران این انتخاب را دارند که با بررسی کردن موقعیت واکنش نشان دهند.

شریف گفته است:«آن‌ها تصمیماتی می‌گیرند که باعث می‌شود ریسک موجود بین افراد مختلف داخل خیابان تقسیم شود.»

شرکت کنندگان در یک دو راهی اخلاقی گیر کرده بودند که هرچه زندگی اتوماتیک پیشرفت می‌کند، بیشتر اذهان عمومی را درگیر می‌کند: چقدر قدرت باید به ماشین آلات داده شود؟ این اتفاقات مربوط به مسئله ترولی که در زندگی واقعی می‌افتند – هرچند احتمال بروزشان بسیار ناچیز باشد – ترس مداوم مردم برای تصمیمات بین مرگ و زندگی را هدف قرار می‌دهد.

شریف می‌گوید:«اینطور به نظر می‌آید که سال 2018 سالی بود که مردم شروع به مخالفت با تکنولوژی‌های نوظهور کردند. (خودروهای خودران) احتمالا اولین محصولاتی هستند که می‌توان آن‌ها را طوری برنامه ریزی کرد که زندگی مالک خود را به عمد و برخلاف خواست خودش در معرض خطر قرار دهند.»

شریف معتقد است که دوراهی اخلاقی مخصوصا در مورد خودرو‌ها مطرح است چون ما زمان زیادی از وقت خود را در آن‌ها و میزان زیادی از پولمان را برای آن‌ها خرج می‌کنیم.

به علاوه، تقریبا هرکسی که به طور مستمر رانندگی می‌کند، با چنین موقعیت‌های پرخطری که باید در کسری از ثانیه تصمیم مهمی برایش گرفته شود، رو به رو شده است. در سال 2010، خانمی از کبک کانادا، اما شورنوبج، ماشین خود را وسط اتوبان متوقف کرد که یک خانواده اردک را نجات دهد و باعث مرگ دو نفر موتورسوار شد.

بیشتر بخوانید:  سیستم آموزش عالی فنلاند چگونه کار می‌کند؟

شریف معتقد است که این تحقیقات “بزرگترین مطالعه در زمینه روانشناسی اخلاقی که تا به حال انجام شده است” محسوب می‌شود. وقتی وایس و بقیه، داستان‌هایی در مورد بازی ماشین اخلاقی نشر دادند، مشهور و همه‌گیر شد و از سالی که تاسیس شد و شروع به کار کرد، بیش از 40 میلیون تصمیم را ضبط و ثبت کرده است.

شریف در مکالمه تلفنی به من گفت:«اوباما یک بار در موردش صحبت کرد که به ما کمک کرد. بعد از آن تعدادی از یوتیوبرها ویدیوهایی از خودشان در حال انجام این بازی منتشر کردند. یک زوج که کارشان مرور و بازدید از بازی‌های کامپیوتری است، یک ساعت و نیم وقت گذاشتند و در مورد تمام 13 سناریوی موجود در بازی ماشین اخلاقی صحبت کردند.»

او گفت که همکارانش که در نوشتن این مقاله با او همکاری کرده اند امیدوار هستند که تحقیقاتشان آژانس‌های نظارتی و سازندگان خودرو‌ها را درمورد نحوه چگونگی برخورد با این مسئله ی اخلاقی آگاه کند – و به آن‌ها نشان دهد چرا انقدر حیاتی و مهم است که آحاد مردم را در اینگونه تصمیمات مشارکت دهند.