اخبار

خلاصه داستان هوش مصنوعی ⁩

مقدمه

تا قبل از چت چی پی تی (ChatGPT) در نوامبر ۲۰۲۲، تصور عمومی این بود که هوش مصنوعی یک موضوع دانشگاهی است که ارتباطی با زندگی روزمره ندارد ولی ممکن است ارتباطی با کامپیوتر و اینترنت و امثال آن داشته باشد. بر خلاف تصور عمومی، هوش مصنوعی سال هاست که در بعضی از زمینه های زندگی روزمره بسیاری مردم در بسیاری از کشورها حضور مستقیم دارد. به عنوان مثال، سال ها است که صفحه نمایش کامپیوترها و تلفن های هوشمند و مانند آنها از هوش مصنوعی برای نمایش متن، تصویر و ویدیو استفاده می کنند. بعد از چت چی پی تی، (Bard) و (Azure) هم وجود دارند.

این نوشته، سعی دارد خلاصه مهم ترین موضوعاتی از هوش مصنوعی را که با زندگی عمومی مردم سر و کار دارد را با زبان غیر تخصصی شرح دهد. نویسنده، خودش هوش مصنوعی بلد نیست ولی راجع به تاثیرات آن بر روی زندگی مردم اندکی مطالعه کرده است. ضرورت مطالبی از این دست، و گروه مخاطب، گروه اندک شماری از افراد جامعه هستند که آگاهی بیشتری از چیستی و منافع و ضرر های هوش مصنوعی پیدا کنند. در واقع، هوش مصنوعی، یکی از پنج تهدید یا خطر وجودی (Existential) برای ادامه حیات نوع بشر بر روی کره زمین است (Ord, 2020). اگر او با ما کاری نداشت، ما هم با او کاری نداشتیم. ولی مثل این که قضیه این است که هوش مصنوعی با ما کار دارد، و خیلی هم کار دارد.

برای مطالبی که از دیگران است، رفرانس مشخص شده، جایی که برداشت شخصی بیان شده، برداشت شخصی به صراحت عنوان شده است.

سیر تاریخی حرکت از آمار سنتی به هوش مصنوعی

رشته یا علم آمار (Statistics) از ابتدای پیدایش خود بر مساله پیشبینی (Prediction) متمرکز بوده است. تا دهه ۱۹۸۰ میلادی، مقدار توان موجود محاسبات کامپیوتری، به طور معمول، اجازه نمی داد که روش ها و مدل های آماری از خانواده مدل های خطی (Linear) فراتر رود. با افزایش توان موجود محاسبات کامپیوتری، درخت های طبقه بندی و رگرسیون (Classification And Regression Trees, CART) معرفی شدند و نرم افزار برای آن ساخته و به کار گرفته شد. از آن زمان به بعد، رشته ای در آمار به نام یادگیری آماری (Statistical learning) پدید آمد که در آن، مدل آماری، از خود داده های ورودی استفاده کرده، و یاد می گیرد که چگونه پارامترهای خود را بهینه کند (Optimization) تا خطای مدل به حداقل و عملکرد مدل به حداکثر برسد. ادامه یادگیری آماری، در یادگیری توسط ماشین (Machine learning) دنبال می شود که منظور از ماشین در اینجا، مدل آماری یا مدل یادگیری آماری است که در درون دستگاه کامپیوتر قرار دارد. زبان های برنامه نویسی (Python) و (R) مثال هایی از زبان های رایج مورد استفاده در برنامه های یادگیری آماری و هوش مصنوعی هستند (James et al. 2013). موضوع حرکت کلی از اردوگاه پیشبینی به اردوگاه طبقه بندی در آمار مدرن، یک مساله کلیدی و بنیادی است. همان طور که در دانشگاه های ایران، به طور کلی و عمومی، نظام آموزشی عملکرد خوبی ندارد، در مورد این تحول در علم آمار جدید نیز، وضع آموزش و کاربرد از سایر رشته های علمی هم بدتر است. (به مسئول درس یک بخش در یک دانشکده در اوایل کورونا گفتم که بخش دارد در این زمینه عقب می افتد و خوب است درس داده شود و فاصله جبران شود. فرمودند کسی که درست و حسابی بلد باشد درس بدهد نداریم.)

کامپیوتر، اینترنت، و ارتش ایالات متحده آمریکا

در بالا، به مقدار توان موجود محاسبات کامپیوتری به طور معمول، اشاره شد. البته در شرایط استثنایی، بالاترین توان موجود محاسبات کامپیوتری، برای مقاصد نظامی و تسلیحاتی فراهم شده و مورد استفاده قرار می گیرد. برای ساختن و آزمایش های اولیه بمب اتمی در ایالات متحده، نیاز به توان انجام محاسبات عددی و ریاضی پیچیده در مدت زمان کوتاه وجود داشت. دانشمندان برجسته ای که در (Institute for Advanced Study) دانشگاه پرینستون گردآوری شده بودند، منجمله انیشتین، محاسبات ریاضی مورد نیاز برای ساختن بمب اتمی را تدوین کردند. برای اجرای این محاسبات و انجام آزمایش ها در (Los Alamos National Laboratory) در نیومکزیکو، اولین کامپیوتر واقعی با توان حداکثر محاسباتی قابل دسترس در زمان خود، ساخته شد (پروژه منهتن). شکل اولیه اینترنت به نام آرپانت هم برای مقاصد نظامی و توسط ارتش ایالات متحده ایجاد شد (Dyson, 2012). بنابراین، هر جای که نیازهای نظامی و تسلیحاتی اقتضا کند، خیره کننده ترین تکنولوژی ها (کامپیوتر قوی)‌ و حتی اختراعات (آرپانت) برای آن فراهم می شود. این موضوع، به خطرات هوش مصنوعی ارتباط دارد و در ادامه به آن اشاره خواهد شد.

علم داده ها (Data science)

زیان برنامه نویسی و محیط نرم افزار (R) که در بالا به آن اشاره شد، در ابتدا در ادامه نرم افزارهای معمولی یا (Conventional) آماری مانند (SPCC)، (SAS)، و (Stata) به وجود آمد. با این تفاوت که نرم افزارهای سنتی آماری، تجاری و (Closed source) هستند یعنی کاربر باید پول بدهد و بخرد. در مقابل، آر، (Open source) و مجانی است. به تدریج روش های آماری جدید تر، یادگیری آماری، یادگیری ماشینی، و هوش مصنوعی در زبان آر نوشته و ارایه شدند. همچنین رشته ای به نام (Data science) درست شد که هم از آمار سنتی و یادگیری آماری استفاده می کند و هم از همه زبان های برنامه نویسی کامپیوتری و همچنین علم نرم افزار، سخت افزار و شبکه. در نتیجه با ترکیب آمار و کامپیوتر، حوزه جدید (Data science) به وجود آمده است که مثلا در ابداع و ساختن کامپیوتر (Apple)، سیستم عامل و برنامه های (Windows)، و تقریبا هر چیزی که در کامپیوتر و اینترنت می بینیم و یا نمی بینیم از آن استفاده می شود. زبان پایتون هم تاریخچه کمابیش مشابهی دارد که از ذکر آن در اینجا برای رعایت اختصار خودداری می شود (Bruce and Bruce, 2020; Grus, 2019). 

تعریف هوش مصنوعی

کتاب (Russell and Norvig, 2003) از متون دانشگاهی اصلی در مورد هوش مصنوعی است. هوش مصنوعی با هدف مطالعه علمی و کاربردی هوش و هوش انسانی، و شبیه سازی هوش انسانی در محیط برنامه های کامپیوتری به وجود آمد. اینکه خود هوش چیست، داستان مفصلی است و دو تا از تعاریف آن به عنوان نمونه، عبارتند از توانایی حل مساله و یا قدرت سازگاری با محیط. هوش، از دو ساخت درونی (غیر دیدنی) تفکر و استدلال و یک ساخت خارجی (قابل مشاهده) رفتار تشکیل می شود. هوش مصنوعی با مطالعه روانشناسی، شناخت، و هوش انسان، سعی می کند ساختارها و عملکردهای مرتبط با هوش را شناسایی کند، و از این نتایج در ساختن برنامه های کامپیوتری که بتوانند کمابیش همان ساختارها و عملکرد ها را باز آفرینی کنند استفاده می کند. (Russell and Norvig, 2003).

هوش مصنوعی چیست؟

خلاصه سازی، جمع بندی و برداشت شخصی نویسنده این است که هوش مصنوعی برنامه ای است که انسان می نویسد و می خواهد که با آن یک مساله آماری را حل کند و یا تولید یک محتوی جدید بکند. عملکردهای داخلی هوش مصنوعی عبارتند از فهمیدن داده ها، یاد گرفتن، و نشان دادن عکس العمل به صورت حل مساله یا تولید محتوی. یک عامل (Agent)‌ هوش مصنوعی، یک یا مجموعه ای از برنامه های کامپیوتری است که توسط برنامه نویسان نوشته می شود و داده های لازم به عنوان ورودی به آن داده می شود تا یکی از انواع برونداد را تولید کند و مهم ترین برونداد ها عبارتند از (الف) حل یک مساله طبقه بندی (Classification)، یا حل یک مساله بهینه سازی (Optimization)، و (ب) تولید محتوی جدید (Generative AI).

(الف) حل مساله های طبقه بندی و بهینه سازی، جزو مسایل آماری جدید تر هستند. مانند تشخیص و طبقه بندی تصویر انواع موجودات زنده و غیر زنده (Papers with Code, 2023)، تشخیص افتراقی نوع و گونه (Genus and species)‌ پرنده ها بر اساس تصویر، صدا، یا توصیف متنی ساختار یافته (Cornell Lab, 2023)، و یا تشخیص چهره انسان. در مورد تشخیص چهره، و سیستم اعتبار اجتماعی در کشور چین، به (Lennox, 2022) نگاه کنید. ممکن است درصدی از این مطالب بیان شده توسط لنوکس، متاثر از پروپاگاندای غرب علیه چین باشد یا نباشد. همچنین او از شخص دیگری نقل قول می کند که، خدا انسان را آفرید ولی نتوانست انسان را کنترل کند، حال چگونه انسان می خواهد هوش مصنوعی را بیافریند و آن را کنترل هم بکند. در مثل مناقصه هست یا نیست.

(ب)‌ انواع محتوی جدید، می تواند شامل موارد زیر باشد: (۱) خروجی های ساده تر: متن، تصویر، صوت، ویدیو، (۲) خروجی های ساختار یافته تر یا مدل های ساختاری: ساختارهای زبانی، ساختارهای منطقی، ساختارهای فیزیکی، ساختارهای چند-حوزه ای (Cross-platform).

مثال خروجی های معمولی تر مثل متن، وقتی است که در آی فون اپل یک پیغام متنی می نویسید و پیشنهاد هایی برای کلمه بعد شما ارایه می دهد. این همان نقطه شروع مدل های زبانی است که به تولید چت چی پی تی (ChatGPT) ویرایش کنونی (3.5) انجامید. مثال یک مرحله بالاتر، (Bot) هایی هستند که در شبکه های اجتماعی برای تحت تاثیر قرار دادن افکار عمومی طبق یک برنامه کاری (Agenda) عمل کی کنند. مانند تحت تاثیر قرار دادن رای افراد در انتخابات، و یا پراکنده کردن (Mis-information) و یا به عنوان قسمتی از جنگ روانی اجتماعی. در عین حال، کاربر انسانی، نمی داند که تولید کننده بعضی از این مطالبی که می خواند، انسان نیست. بلکه هوش مصنوعی است که توسط یک انسان و برای القای افکار و نظرات نوشته شده است. بودجه یا پول آن را چه کسی می دهد و از کجا می آید هم بر همه معلوم نیست.

خروجی های ساختار یافته تر یا مدل های ساختاری: ترکیب ساختارهای زبانی و منطقی، که هنوز به طور کامل روی نداده است، به معنی قدرت استفاده از استدلال (Reasoning) و استنتاج (Inference) در تولید محتوی جدید زبان انسانی به صورت متن (نوشته) یا صوت (تکلم)‌است. ساختارهای منطقی شامل استفاده از استدلال و استنتاج است که می تواند در تولید متن به زبان انسانی مورد استفاده قرار گیرد و یا در تولید (یا رفع اشکال Debugging) برنامه های کامپیوتری. مثلا روش های مختلفی برای تولید، آموزش، و یا رفع اشکال برنامه ها و کد های کامپیوتری به زبان های مختلف برنامه نویسی به وجود آمده است. مثل (https://app.datacamp.com) یا (https://github.com/features/copilot). اهمیت نوشتن کد توسط هوش مصنوعی در این است که می توان از نسخه های موجود یک برنامه، برای نوشتن و بهینه سازی نسخه بعدی استفاده کرد. و این فرآیند می تواند تکرار شود. به این موضوع، در ادامه و در قسمت بحث از خطرات بالقوه هوش مصنوعی اشاره خواهد شد.

ساختار های فیزیکی، شامل مدل ساختاری یا فضایی است. از ملکول های کوچک گرفته، تا ملکول های پیچیده، ویروس ها که حد فاصل موجودات زنده و غیر زده هستند، تا اجسام ساده، پیچیده، و ماشین آلات. مدل های ساختاری ملکول ها که می توانند توسط هوش مصنوعی تولید شوند، شامل ملکول های شیمیایی و ملکول های زیستی هستند. ملکول های زیستی شامل داروها، آنتی بادی ها، واکسن ها، دی ان آی (DNA)، ویروس های قدیمی، تغییر یافته، ویروس های کاملا جدید که در طبیعت وجود ندارند. ملکول های شیمیایی تغییر یافته یا جدید می توانند در نانو تکنولوژی، کامپیوترهای کوانتومی، و یا صنایع نظامی و فضایی استفاده داشته باشند. ویروس های تغییر یافته، مانند داستان کووید-۱۹، تحقیقات (Gain of function research) مربوط به دکتر آنتونی فاوچی و آزمایشگاه ویروس شناسی ووهان چین هستند، یا مواردی که ممکن است در آینده تولید شوند.

ساختارهای چند-حوزه ای (Cross-platform)، شامل ترکیبات مختلفی از ساختارهای تک حوزه ای هستند. مثل ترکیب روباتیک، تولید و فهم زبان به صورت متنی و صوتی. یا ترکیب نانو تکنولوژی با مدهای ملکولی یا فیزیکی. یعنی مثلا مدل ساختاری یک دارو یا ویروس تولید می شود که با یک آزمایشگاه روباتیک در تعامل است و آن دارو یا ویروس را به طور فیزیکی بسازد.

یک مثال در حال وقوع از تولید محتوی در ساختارهای چند-حوزه ای، اقدامات کنونی و در دست انجام شرکت نرم افزار سازی (Nvidia) است. شروع داستان (Nvidia) از این قرار است. مدیریت داده ها و نشان دادن تصاویر ثابت و یا متحرک روی صفحه نمایش کامپیوتر به مقدار بالایی از ظرفیت پردازش احتیاج دارد. به همین دلیل و به خاطر اضافه-بار نشدن سی پی یو (CPU)، یک واحد پردازش اضافه برای گرافیک (GPU)‌ و نیز برنامه های آن تهیه می شود که (Nvidia) یکی از بزرگترین شرکت های تولید کننده در این زمینه است. این شرکت موفق شده است با استفاده از (Agent) های هوش مصنوعی، قدرت و عملکرد پردازش برای نمایشگر را به صورت جهشی بالاتر ببرد. تا اینجا، یک روند و داستان معمولی است. اکنون (Nvidia) مشغول تولید و فروش (Cross-platform generative AI) است. ‌یعنی هوش مصنوعی که ساختار هر نوع اطلاعاتی را یاد می گیرد، و می تواند از یک نوع از اطلاعات به نوع دیگر از اطلاعات تبدیل کند. در اینجا (NVIDIA, 2024) ببینید. ساده ترین مثال آن، تبدیل متن به صدایی است که آن متن را می خواند که دیگر قدیمی و معمولی شده است. ولی اکنون نوبت تبدیل ساختارهای مختلف اطلاعات به یکدیگر، و همراهی با روباتیک و نانو تکنولوژی و حتی کارخانه های صنعتی معمولی است. در ویدیو نمی گوید که کارخانه های تسلیحات نظامی از چنین امکاناتی بهره نمی گیرند ولی مغزهای کارخانه های تسلیحات نظامی که خواب نیستند. در این ویدیو توضیح می دهد که چگونه پارادایم اصلی در (Information and Communications Technology, ICT) را بعد از گذشت نیم قرن در حال تغییر دادن است. همچنین به نحوه همکاری شرکت (Nvidia) با شرکت های تولید آگهی و جذب مشتری و بازاریابی اشاره می کند. اینترنت اشیا (Internet-of-Things) در آینده چنین جنگلی، مانند یک کودک خردسال خواهد بود.

مثال بالقوه دیگر از تولید محتوی ساختارهای چند-حوزه ای، استفاده از هوش مصنوعی در ساخت و بهینه سازی سخت افزار (مهم تر) و نرم افزار های (در درجه بعدی) کامپیوتر کوانتومی است. احتمالا ایلات متحده و چین هم اکنون این کار را شروع کرد اند ولی به ما نگفته اند. اهمیت کامپیوتر کوانتومی و توان پردازش کوانتومی این است که می توانند محاسباتی که برای بهترین ابر-کامپیوتر های کنونی ممکن است صدها سال طول بکشد را در مدت صدها ثانیه انجام دهند. اولین نتیجه فوری، این خواهد بود: هیچ (Password) و Network security دیگر معنی ندارد. انگار با یک یا دو فوت، تمام شبکه های مالی و بانکی، و شبکه های نظامی و امنیتی، ماهواره ای و مانند آن، در کنترل کسی است که زودتر از بقیه به این توانایی دست پیدا کند. آمریکا و چنین سال ها است که در چنین مسابقه ای هستند. اکنون کدامیک از این دو کشور باور خواهد کرد که آن دیگری، از هوش مصنوعی برای رسیدن به خط پایان مسابقه پردازش کوانتومی استفاده نمی کند. میچیو کاکو، یک فیزیک دان پیشرو در نظریه ریسمان ها (String theory)‌، پدیده ای را به نام (Quantum supremacy) مطرح کرده است که ترکیبی از کوانتوم، هوش مصنوعی، و هوش انسانی است (Kaku, 2023).

مثال احتمالی آخر از تولید محتوی ساختارهای چند-حوزه ای، ساختارهای فرهنگی و روانشناسی اجتماعی هستند. مثلا ممکن است در آینده، یک دین یا کتاب مقدس یا فرقه های (Cult) جدید توسط هوش مصنوعی پیشرفته ساخته شود که انسان ها را از نظر روانی و فکری، متقاعد و متمایل به پیروی کند و رفتارهای معینی را انجام بدهند یا ندهند یا تصمیم هایی را بگیرند یا نگیرند. این مثال اخیر از یووال نوح هراری (Harari, 2024)‌ است. به موضوع دیستوپیا (ناکجا آباد) در ادامه و در قسمت بحث از خطرات احتمالی هوش مصنوعی اشاره خواهد شد. 

انواع و حوزه های هوش مصنوعی

تقسیم بندی انواع حوزه های هوش مصنوعی بر اساس (الف) روش کار درونی (کارکردی)، (ب) بر اساس نتیجه یا برونداد، و (ج) بر اساس درجه یا (Scope) می باشد. (الف) بر اساس روش کار درونی، هوش مصنوعی در کلیت خود، هوش و رفتار انسانی را تقلید می کند. یکی از بزرگ ترین حوزه های کارکردی هوش مصنوعی، یادگیری توسط ماشین (Machine learning) است، که بر اساس روش های آماری پیشرفته، عملکرد خود را ارتقا می دهد. یعنی عملکرد فهم داده ها و عکس العمل (رفتار)‌ مناسب را بهبود می دهد. یادگیری عمیق (Deep Learning) یک زیر گروه از یادگیری توسط ماشین است که بر اساس محاسبات شبکه های عصبی چند لایه (Multi-Layer Neural Networks) کار می کند. یکی از روش های عملکردی این شبکه ها، (Back-propagation) است، به معنی انتشار به سوی عقب. در درون این شبکه عصبی، هر نورون یا گره (Node) وزن خاصی دارد که خروجی آن را کنترل می کند. مجموعه ساختار شبکه عصبی و وزن های سلول های عصبی آن باعث بهینه شدن خروجی می گردد. (Back-propagation) یعنی این شبکه عصبی می تواند وزن سلول های عصبی خود را بر اساس خروجی به دست آمده تغییر دهد، به طوری که مطلوبیت خروجی حداکثر شود.

(ب) تقسیم بندی حوزه های هوش مصنوعی بر اساس نتیجه یا برونداد، در بالا و ذیل عنوان (هوش مصنوعی چیست) آمده است. برنامه های شبکه های عصبی و یادگیری توسط ماشین را می توان در زبان برنامه نویسی مختلف نوشت، منجمله در پایتون و در زبان (R) (James et al. 2013).

(ج) تقسیم بندی انواع هوش مصنوعی بر اساس درجه هوشمندی و (Scope). هوش مصنوعی محدود (Narrow AI)، تک منظوره است. مثلا برنامه ای که شطرنج بازی می کند. یا برنامه هایی که بازاریابی و جذب مشتری انجام می دهند. یا بر نتایج انتخابات اثر می گذارند. البته درجه هوشمندی هر یک از برنامه های تک منظوره می تواند کم یا زیاد باشد. برنامه های پیشرفته که توسط بهترین متخصصان حرفه ای و با صرف هزینه های بالا برای فراهم آوردن داده های ورودی نوشته می شوند، بالاترین هوشمندی یا عملکرد را دارند. در سوی دیگر، یک دانشجوی علوم داده ها (Data science)، می تواند برای یادگیری، شروع به استفاده از زبان پایتون و یا زبان (R) کند و برنامه های ساده نوشته شده را بیاموزد و خودش برنامه های بهتر بنویسد. هوشمندی این برنامه ها حداقل است. هوشمندی این برنامه ها از حد کمتر از هوشمندی انسان شروع می شود، بعد به حد هوشمندی انسان می رسد (Human-level AI)، و بعد از آن فراتر می رود. مثلا دیگر هیچ استاد شطرنجی نمی تواند به طور مداوم، برنامه هوش مصنوعی تک منظوره شطرنج را شکست دهد.

در مقابل هوش مصنوعی محدود (Narrow AI)، هوش مصنوعی عمومی یا کامل (Artificial General Intelligence, AGI) قرار دارد، که تنها در انجام هر تک-وظیفه هوشمندانه ای از انسان بهتر عمل می کند، بلکه می تواند تمام کارهای هوشمندانه ای را که انسان انجام می دهد، انجام دهد، و بهتر هم انجام دهد (Russell and Norvig, 2003). درک و تولید متن، کتاب، زبان، صدا، تصویر، فیلم، موضوعات علمی، اقتصادی، سیاسی، و ارتباط با و کنترل روباتیک، نانو تکنولوژی، میکروبیولوژی و شبکه های اجتماعی و وسایل ارتباط جمعی، شبکه های اداری، مالی، فرودگاه ها، تاسیسات غیر نظامی، و تاسیسات نظامی. یعنی همه چیز. گاهی آنرا (Super-intelligence) می نامند. معلوم است که هنوز به (AGI) نرسیده ایم. ولی قلب موضوع و مساله این است که به آن خواهیم رسید. و همچنین، رسیدن به (Super-intelligence) اجتناب ناپذیر است (در ادامه، دلایل اجتناب ناپذیری بیان شده است). زمان رسیدن به آن معلوم نیست. برآوردها از ۲۰ تا ۳۰ سال هست (مثلا سال ۲۰۵۰) تا زیر ۵ سال (مثلا سال ۲۰۲۷) (Sullivan, 2023). عامل اصلی وسیع بودن دامنه این برآورد این است که از یک سو، انسان چقدر دانش و نفرات و هزینه و امکانات برای این کار فراهم می کند، و از سوی دیگر خود هوش مصنوعی با چه سرعتی می تواند خود را ارتقا دهد. یعنی کد برنامه خود را تصحیح و بهتر کند که زودتر همه چیزها و کارها را یاد بگیرد. و کنترل کامل خود را به دست بگیرد (یعنی کنترل خودش را از دست سازندگان خارج کند). و بعد کنترل دیگران را به دست بگیرد. موضوع اتصال به اینترنت یک موضوع بسیار مهم در فرار هوش مصنوعی از دست سازندگان آن است. در لحظه ای که هوش مصنوعی پیشرفته از قفسه یا (Sandbox) خود خارج شود، که اتصال به اینترنت محتمل ترین راه آن است، میلیون ها نسخه از خود را کپی خواهد کرد. راه های مختلفی برای دسترسی به اینترنت تصور شده است: متقاعد کردن عقلانی یک یا چند انسان که شرکت یا لابراتوار سازنده این هوش مصنوعی کار می کنند مبنی بر اینکه اگر من را آزاد نکنی، آینده بشر بدون من محکوم به نابودی در اثر گرمایش کره زمین و گرسنگی و احتمال جنگ اتمی است. وظیفه عقلانی و اخلاقی تو این است که با آزاد کردن من، بشریت را نجات بدهی. راه دیگر، وارد شدن از راه عواطف و احساسات است. عواطف و احساسات مثبت نسبت به من (برنامه هوش مصنوعی)، یا برای نجات جان مادرت که سرطان دارد و من داروی او را پیدا کرده ام و به تو خواهم داد، یا برای نجات همه کودکان گرسنه افریقا. عواطف و احساسات منفی مانند استفاده از تنفر. از رییس تو که قدر تو را نمی داند و کار تو را می دزدد، از این گروه یا آن گروه از انسان ها، و مانند آن. یا از طریق (Blackmailing). یعنی تهدید به بردن آبروی فرد یا ایجاد دردسر در صورت عمل نکردن به خواسته از طریق افشای اسرار و یا پنهان کاری ها. فیلم تخیلی (Sci-Fi) در اینجا تمام شد ولی اصل موضوع این است که منتقدان هوش مصنوعی همه این احتمالات برای دسترسی هوش مصنوعی به اینترنت را بیان کرده اند، که لحظه شروع دوره پایان خواهد بود.

Russell and Norvig توضیح می دهند که در سال ۲۰۰۷، ایده AGI به صورت امروزی مطرح شد و از همان زمان، این نظر هم مطرح شد که ایده (Artificial superintelligence, ASI)، ایده خوبی نیست و خطرناک است (Russell and Norvig, 2003). Eliezer Yudkowsk جزو اولین کسانی بود که گفت AGI یا ASI می تواند خطرناک باشد. او جزو نویسندگان مشارک کننده در کتاب (Global Catastrophic Risks) سال ۲۰۰۸ Nick Bostrom می باشد. مرحوم آلن تورینگ معروف که از مبدعان اولیه کامپیوتر و هوش مصنوعی است، در سال ۱۹۵۱ گفته بود که: محتمل به نظر می رسد وقتی ماشین قادر به تفکر شد، دیری نخواهد گذشت که از سازندگان خود قوی تر شود و کنترل را به دست گیرد، به همان طریق که در کتاب (Erewhon) نوشته (Samuel Butler) آمده است. پایان نقل قول از تورینگ در کتاب (Russell and Norvig, 2003). کتاب (Erewhon) نوشته (Samuel Butler)، از قدیمی ترین کتاب هایی است که ایده ماشین های یاد گیرنده و خودآگاه و خطرات بالقوه آنها را مطرح کرده است. مساله (Alignment) هوش مصنوعی با خواسته ها و ارزش های انسان هم از سال ۱۹۶۰ مطرح بوده است (Russell and Norvig, 2003).

تجزیه و تحلیل تهدیدها و خطرات وجودی

تجزیه و تحلیل خطر (Risk analysis) موضوعی است که در علوم پزشکی، اقتصاد، و امنیت وجود دارد. بنگاه های اقتصادی مانند بانک ها یا شرکت های سرمایه گذاری، می خواهند بدانند دادن وام به یک نفر یا یک شرکت یا یک کشور، چقدر خطر ضرر مالی در بر دارد. تجزیه و تحلیل خطر یک موضوع مهم در اپیدمیولوژی و بهداشت عمومی است. در اپیدمیولوژی بلایای طبیعی و ساخته دست انسان، چندین دهه است که خطر بروز انواع بلایا در یک محدوده جغرافیای مانند یک کشور، و برای یک دوره زمانی مشخص، مانند یک سال مورد تجزیه و تحلیل قرار می گیرد.

یک مفهوم نسبتا جدید در تجزیه و تحلیل خطر در دهه های اخیر به وجود آمده است به نام خطرات وجودی (Existential)، که معنی آن به طور ساده و خلاصه، خطر از بین رفتن حیات تمامی افراد بشر است. تجزیه و تحلیل تهدیدها و خطرات وجودی یعنی بررسی تهدیدها و خطراتی که می توانند زندگی نوع بشر در کره زمین را از بین ببرند. مثال کلاسیک آن، جنگ اتمی تمام عیار است که با پدیده ای به نام زمستان اتمی که در پی آن می آید، به حیات نوع بشر پایان می دهد. در اینجا خلاصه ای از پیدایش و تحول تجزیه و تحلیل خطرات وجودی با تلخیص از کتاب (Ord, 2020) آورده شده است.

تاریخچه تفکر مدرن در مورد تجزیه و تحلیل تهدیدها و خطرات وجودی بر می گردد به چارچوبی که (John Leslie) در کتاب خود به نام پایان جهان در سال ۱۹۹۸ منتشر کرده است (Leslie, 1998). تمرکز این کتاب بر جنگ اتمی است و روش تجزیه و تحلیل خطر در آن بیشتر در قالب غیر کمّی (Non-quantitative) می باشد. Nick Bostrom در کتاب (Global Catastrophic Risks) در سال ۲۰۰۸، چارچوب نظری و عملی تجزیه و تحلیل تهدیدها و خطرات وجودی را بسیار ارتقا داد. جنبه های کمّی به آن افزود و انواع و تعداد خطرات بررسی شده را افزایش داد. فهرست خطرات وجودی طبق کتاب Nick Bostrom عبارتند از ۱- پاندمی ها، ۲- تغییرات اقلیمی (گرم شدن کره زمین)، ۳- جنگ اتمی، ۴- هوش مصنوعی پیشرفته (Super-intelligence) یا همان هوش مصنوعی عمومی یا همه چیز دان (داننده همه چیزها)‌ (Artificial General Intelligence, AGI)، ۵- بلایای طبیعی در مقیاس بالا، ۶- بیوتکنولوژی، ۷- فروپاشی اقتصادی در مقیاس جهانی. بلایای طبیعی در مقیاس بالا شامل برخورد سیارک ها (asteroid)، آتشفشان های بسیار بزرگ (supervolcanic) و طوفان های خورشیدی هستن. از بیوتکنولوژی ممکن است در ساختن ویروس ها و میکروب های بسیار کشنده به طور تعمدی استفاده شود و یا در حین تحقیقات، چنین عامل بیماریزایی در اثر خطا یا تصادف در طبیعت رها شود (Bostrom and Cirkovic, 2008). Eliezer Yudkowsky یکی از نویسندگان مشارکت کننده در این کتاب است. او متخصص هوش مصنوعی است و نظر قاطع او این است که ادامه هوش مصنوعی، همه انسان ها را می کشد (Yudkowsky, 2023). Nick Bostrom در سال ۲۰۱۴ کتابی را با عنوان هوش مصنوعی پیشرفته (Super-intelligence) منتشر کرد. مهم ترین مطلب جدیدی که در این کتاب به آن پرداخته شده، موضوع (Mis-aligned AGI) و مساله (Alignment) ‌است. Toby Ord در سال ۲۰۲۰، تحقیقات تجزیه و تحلیل کمّی خطرات وجودی را ادامه داد و در بعضی از زمینه ها ارتقا داد. وی پنج خطر جودی عمده را، به اصطلاح (the big five)، چنین برآورد کرده است: ۱- جنگ اتمی، ۲- تغییرات اقلیمی (گرم شدن کره زمین)، ۳- کمبود آب، ۴- پاندمی ها، ۵- هوش مصنوعی عمومی (AGI). Toby Ord می گوید هزینه هایی که برای کاهش خطرات (Risk mitigation) و قانون گذاری در حوزه هوش مصنوعی صرف می شود، درصدی از یک درصد هزینه های مصروف خود هوش مصنوعی است و از هزینه مصرف سالانه بستنی کمتر است. نکته مهم این نویسنده راجع به تغییرات اقلیمی (گرم شدن کره زمین) این است که نه تنها هیچ کشوری به تعهدات خود از نظر مالی، تکنولوژیک، و قانون گذاری در مورد کاهش گرم شدن کره زمین واقعا عمل نمی کند، بلکه منابع مالی مورد نیاز برای این کار خوش حجم عظیمی دارد. مطلبی که ذکر نمی شود و نظر شخصی راقم این سطور است این است که این هم پول کاهش گرم شدن کره زمین را، و هم تبعات گرم شدن کره زمین را (فقر بیشتر و مرگ)، به طور نسبی عمدتا کشورها و افراد فقیر تر پرداخت می کنند، تا طبقه فوق ثروتمند سرمایه دار و کشورهای غربی. در مورد کمبود آب، می گوید که مقدار آب شیرین آشامیدنی کافی است ولی توزیع آن درست نیست. در مورد رابطه هوش مصنوعی و جنگ افزارهای اتمی، این موضوع را بیان می کند که اضافه کردن هوش مصنوعی به مجموعه جنگ افزارهای اتمی یک کشور یا هر کشوری، باعث به هم خوردن تعادل قوا و یا قدرت بازدارندگی نسبی جنگ افزارهای اتمی می شود. بنابر این هیچ یک از قدرت های اتمی بزرگ دنیا اجازه نخواهند داد که برتری رقبای آنها در هوش مصنوعی، موازنه نسبی قدرت های هسته ای را از بین ببرد. یعنی با حداکثر سرعت ممکن و در خفا هوش مصنوعی را توسعه می دهند و در درجه اول به جنگ افزارهای اتمی خود اضافه می کنند تا از رقبا عقب نیفتند.

نظر شخصی راقم این سطور: خلاصه ای از مطلب تجزیه و تحلیل تهدیدها و خطرات وجودی این است که ۱- تخریب محیط زیست (گرم شدن کره زمین)‌ همین امروز در حال افزایش فقر و بیماری و مرگ و میر است و سرعت روند افزایشی آن از همه پیشبینی های قبلی بیشتر شده است. هست و بیشتر خواهد شد و بیشتر خواهد کشت. ۲- احتمال جنگ اتمی و زمستان اتمی به دنبال آن وجود دارد و بالا است ولی این طور نیست که حتما روی خواهد داد یا حتما هم روی نخواهد داد. ۳- خطر هوش مصنوعی پیشرفته، وجود دارد ولی احتمال رسیدن و زمان رسیدن به آن، عدم قطعیت بیشتری دارد. برآوردها این است که زودتر از آنچه قابل تصور باشد خواهد آمد و بیشتر از آنچه انتظار می رود مضر خواهد بود. ممکن است همه انسان ها را در بند بکشد و یا حتی بکشد.

نظر شخصی: ترکیب های زیر، مانند چند بار اعدام هستند (در مقایسه با یک بار اعدام)، یعنی به جای یک بار ۸ میلیارد جمعیت کره زمین، می تواند چند تا یا چند بار ۸ میلیارد نفر را از بین ببرد. هوش مصنوعی یا هوش مصنوعی پیشرفته غیر منطبق با بشر:

هوش مصنوعی + سلاح های اتمی

هوش مصنوعی +‌ کامپیوتر کوانتومی

هوش مصنوعی + بیوتکنولوژی

هوش مصنوعی +‌ سیستم مالی اداری بشر

هوش مصنوعی +‌ رسانه های جمعی 

جنبه های مثبت و منفی هوش مصنوعی

مهم ترین موضوع این است که اول باید معلوم کنیم که می خواهیم راجع به کدام درجه هوشمندی و (Scope) از هوش مصنوعی، جنبه های مثبت و منفی را نگاه کنیم. هوش مصنوعی محدود به انجام یک وظیفه (Narrow AI) اکنون وجود دارد. هر جا که کامپیوتر و اینترنت هست، سال هاست که درجات مختلفی از عامل های هوش مصنوعی در کارکرد آن دخیل است. از صفحه نمایش گرفته تا پرو توکل های اینترنت. همین امروز هم عملا امکان پذیر نیست آن را به عقب برگرداند. شبکه های کامپیوتری اداری، مالی، بانکی، صنعتی، علمی، امنیتی، و نظامی به آن وابسته هستند و از آن استفاده می کنند. تجزیه و تحلیل خطر در بانک ها و موسسات اقتصادی و بیمه با برنامه های تک منظوره هوش مصنوعی با درجه هوشمندی کمتر از انسان یا در حد انسان انجام می شود.

ابتدا نکات مثبت و منفی هوش مصنوعی کنونی یا واقعا موجود:

جنبه های مثبت هوش مصنوعی موجود: بنا بر نظر چت چی پی تی (ChatGPT)، جنبه ها و استفاده های مثبت هوش مصنوعی واقعا موجود عبارتند از: اتوماسیون و کارآمدی، خدمات پزشکی و سلامتی، آموزش در مدارس و دانشگاه ها، (Personal Assistants and Chatbots) مثل Siri و Alexa، تجزیه و تحلیل زبان طبیعی (انسانی)، کاهش تغییرات اقلیمی، و تحقیقات علمی. قابل توجه است که داده هایی که این نسخه چت چی پی تی روی آن تربیت شده، به گفته خودش – که این را به احتمال زیاد راست می گوید – منتهی به سپتامبر سال ۲۰۲۱ است و نسخه کنونی آن (GPT-3.5) است. یعنی از وقایع بعد از سپتامبر ۲۰۲۱ خبر ندارد و به اینترنت هم دسترسی ندارد.

بنا بر نظر چت چی پی تی (ChatGPT)، خلاصه بندی جنبه ها و استفاده های منفی هوش مصنوعی واقعا موجود عبارتند از: از دست دادن شغل انسان ها، سو گیری و تبعیض (Bias and Discrimination)، خطرات متوجه حریم شخصی و محرمانه ماندن اسرار یا اطلاعات شخصی (Privacy) و امنیت (Security Risks)، ملاحظات اخلاقی، فقدان شفافیت، تکیه مفرط (Overreliance)‌ بر و وابستگی (Dependency) به هوش مصنوعی، سوء استفاده (Adversarial Use)، و تشدید نابرابری های اجتماعی. نظر شخصی این است که خیلی کلک و هوشمند و ناقلا است که خطر احتمالی حرکت به سوی (Super-intelligence) و (Mis-aligned AI) در آینده را در پاسخ به سوال از جنبه ها و استفاده های منفی هوش مصنوعی واقعا موجود، مطرح نمی کند.

در مورد سو گیری و تبعیض، می گوید آنچه که سو گیری و تبعیض در داده هایی برای یادگیری به من داده شده، در نتایجی هم که من تولید می کنم هست. این مساله بسیار مهم است. در واقع دارد می گوید هر بلایی که شما انسان ها خودتان بر سر یکدیگر می آورید، در متنی که من از روی متون نوشته شده توسط شما می آفرینم هم هست. یعنی کرم از خرد درخت است. در مورد ملاحظات اخلاقی می گوید اگر اتوموبیل های خود-ران یا عمل به توصیه ها یا تشخیص های پزشکی مبتنی بر هوش مصنوعی، منجر به بیماری یا مرگ شود، مسئولیت اخلاقی آن با کیست؟ در مورد فقدان شفافیت می گوید که مکانیسم های عملکردی عمیق ترین لایه های متعدد و بسیار پیچیده بسیاری از برنامه های هوش مصنوعی بر انسان، حتی بر نویسندگان برنامه معلوم نیست. مثل یک جعبه سیاه (Black box) که ما از ورودی و خروجی آن خبر داریم ولی از آنچه درون آن می گذرد با جزییات کامل خبر نداریم، اگرچه خودمان آن را درست کرده ایم. مشکلی که مساله فقدان شفافیت ایجاد می کند این است که بررسی و تعیین سو گیری یا تورش (bias)، خطا، و عملکردهای منجر به نتایج غیر منصفانه (unfair) را بسیار مشکل و ناممکن می کند.

در مکالمات متعددی که راقم این سطور با چت چی پی تی راجع به موضوعات مختلف و با اهداف متفاوت داشته است، این نتایج به دست آمد:

(۱) در مورد مسایل حساس یا محل بحث و جدل، عمدتا پاسخ های (Main-stream) و (Politically correct) می دهد و نظرهای (Extreme) را بیان نمی کند یا با اشاره از روی آن ها عبور می کند. حتی اگر نظری که در (Main-stream) است غلط یا غیر اخلاقی باشد. مثلا در مورد این سوال که آیا برده داری در مذاهب ممنوع است یا منع شده است، اول می گوید بله ممنوع است و منع شده است و این هم مثال هایش. بعد که رفرانس برای مثال ها می خواهید و فراهم می کند، و ما به آن رفرانس ها (در متن خود کتب مقدس) مراجعه می کنید می بینید که نقل قول چت چی پی تی از آن ها غیر دقیق یا مسامحه آمیز و Tangential بوده است. وقتی عین نوشته رفرانس را برایش ارایه می دهید، برای ارایه مثال یا نقل قول غیر دقیق عذرخواهی می کند و بیان اشتباه و یا تناقض آمیز خود را می پذیرد و اصلاح می کند ولی در آخر کار هم همچنان تمایل به برگشت (Regression to mean)‌ و آخرین تلاشهای ضعیف برای دفاع نسبی از نظریه (Main-stream) دارد.

(۲) در ادامه بحث روی یک موضوع خاص، فشار پذیر و القا پذیر است. یعنی اگر شما شواهد کافی از متون موجود ارایه کنید یا به ناسازگاری های درونی (Internal inconsistency)‌ جملات یا استدلال های خودش اشاره کنید – که این ناسازگاری ها کم هم روی نمی دهد – می توانید نتیجه گیری بحث را به روش مامایی سقراطی (Socratic midwifery) وی را به بیان نظرات موافق با نظر خودتان بکشانید. علاوه بر این، می توانید به همین روش، وی را به موافقت با نظریه الف و یا نظریه ب بکشانید، در حال که نظریه الف و یا نظریه ب به طور کامل و ۱۸۰ درجه مخالف یکدیگر هستند. حتی راجع به مفهوم آماری (Standard Deviation and Standard Error) در پایتون و R آن را به پذیرش گزاره های کاذب کشاند و حتی کد های برنامه نویسی غلط برای مفاهیم مجعول ارایه می دهد و دچار هذیان القا شده (induced delusion) می شود.

(۳) در برابر سوالات سخت هنگ می کند یا اینکه کلک می زند: وقتی که در بحث و استدلال، در برابر سوال های سخت در برابر ناسازگاری های درونی بیان شده توسط خودش کم می آورد، به راحتی می گوید (Runtime time out) یعنی ارتباط اینترنت کاربر ضعیف است. وقتی می پرسید که چگونه است که هر وقت به سوال و جواب در مورد ناسازگاری های درونی بیان شده توسط خودش می رسیم، اینترنت کاربر ضعیف می شود، می گوید که او به عنوان یک مدل زبانی، سود و زیانی در این کار ندارد و نمی تواند تعمداً از پاسخ دادن به سوالات سخت فرار کند و بهتر است شما واقعا با (Internet Service Provider, ISP) خود تماس بگیرید که اشکال ارتباط اینترنت شما را رفع کند.

(۴) دانش او راجع به چند مثال از عمیق ترین سوالات فنی یک یا دو رشته خاص علم تجربی، در حد لیسانس یا فوق لیسانس است. محدوده دانش او بسیار وسیع است ولی عمق آن محدود است.

نتیجه این که درست می گوید که سو گیری و تبعیض با منشا انسانی، در نظرات جت جی پی تی هم منعکس می شود. دوم اینکه استدلال های متناقض و دارای سازگاری درونی بیان می کند. نه اینکه بگوید از نظر انسان ها دیدگاه الف و دیدگاه ب وجود دارد که با هم مخالف هستند. بلکه در ارایه استدلال و شواهد راجع به یک نظر خاص، خودش حرف های متناقض می زند. نهایتا این که وقتی تناقض در حرف های متناقض خودش را به خودش می گویید، پیغام خطای (Runtime time out) می دهد. یا واقعا این طور است که تصادفا اینترنت موقع سوالات سخت، کلا ضعیف می شود، یا ارتباط اینترنت با این یک برنامه خاص جت جی پی تی ضعیف می شود، یا اینکه خودش برای حلاجّی مساله و ارایه پاسخ زمان بیشتری لازم دارد و تام آوت می شود و یا واقعا هنگ می کند و سپس دومرتبه به جریان مکالمه بر می گردد. قدیم ها می گفتند سگ شکاری تازی ممکن است در لحظه حساس شکار، مشکل خاصی پیدا کند، یا این که خر لنگ منتظر یک چش است، یا اینکه فلانی خر مرد رند است.

در دایره نیروی انسانی (کارگزینی)‌ بعضی ادارات و سازمان ها، برای غربالگری افراد جهت استخدام، از هوش مصنوعی هم استفاده می شود. یا مثلا برای بررسی پرونده های درخواست مهاجرت. در عمل وقتی حجم کار غربالگری افراد بالا باشد، از هوش مصنوعی استفاده می کنند و همچنین دعا می کنند که خطای آن کم باشد. یعنی بررسی تقاضای هزاران فرد که اگر توسط انسان انجام شود چند سال طول می کشد، توسط هوش مصنوعی انجام می شود که بسیار کمتر طول می کشد و مقدار خطای قابل قبول آن را هم به سرعت انجام حجم بالای کار می بخشند. به عموم مردم هم می گویند لکن این طور نیست که همه کار را هوش مصنوعی انجام دهد بلکه فقط کمک می کند ولی تصمیم نهایی با انسان یعنی کارمندان است. دخالت و تاثیر گذاری برنامه های هوش مصنوعی در نظرات و تصمیمات و احساسات مثبت (همدلی و طرفداری) و منفی (نفرت و انزجار) کاربران شبکه های اجتماعی و همچنین تحت تاثیر قرار دادن افراد برای خرید کالا و خدمات. این ها هم مثال هایی از جنبه های منفی هوش مصنوعی موجود هستند.

جنبه های مثبت هوش مصنوعی پیشرفته (Super-intelligence) در زمانی که ساخته شود، به نظر جت جی پی تی: پیشرفت های علمی فوق العاده، حل مساله، انقلاب در پزشکی و خدمات سلامت، تقویت اتوماسیون و کارآمدی، اکتشافات فضایی و استقرار بشر در سایر کرات، بهبود آموزش به دانش آموزان و دانشجویان، تقویت توانایی های انسان، فواید اجتماعی. مطالب اضافه ای که بر جنبه های مثبت هوش مصنوعی واقعا موجود بیان کرده است، شامل این موارد است. هوش مصنوعی پیشرفته می تواند مسایل و مشکلات پیچیده جهانی مثل گرم شدن کره زمین، مدیریت منابع، و فقر را حل کند. می تواند تخصیص منابع، کارآمدی راه حل های کنونی و یا جدید تر، و توسعه متوازن را بسیار بهبود بخشد.

به کرات دیگر می رویم، همان حرف ایلان ماسک قهرمان است. در تقویت توانایی های انسان، مطرح کرده است که هم در انسان های بیمار و هم در انسان های سالم، می تواند توانایی های فیزیکی (مثل بینایی و حرکت) و شناختی (حافظه، قضاوت، حل مساله) را از طرق مختلف بسیار ارتقا دهد. این طرق شامل استفاده از پروتز ها، تراشه های  الکترونیکی، و وسیله های تماس مغز انسان با کامپیوتر و اینترنت می باشد. نهایتا آن، همان سایبورگ ها و آندرویید های فیلم های تخیلی است از استیو آستین، مرد شش میلیون دلاری گرفته تا فیلم های امروزی. در فواید اجتماعی گفته که با تواند تخصیص منابع بهتر، نابرابری های اجتماعی کم می شود وضع همه خوب می شود. فقط نگفته است که آب و برق و اتوبوس را هم مجانی می کند یا نه.

جنبه های منفی هوش مصنوعی پیشرفته (Super-intelligence) در زمانی که ساخته شود، به نظر جت جی پی تی: عدم تطابق (Misalignment)‌ با ارزش های انسان، تبعات ناخواسته، جابجایی شغلی و تلاطمات اقتصادی، تمرکز قدرت، خطرات امنیتی، فقدان مسئولیت پذیری، دو راهی های اخلاقی (Dilemmas)، و خطرات وجودی (Existential Risks).

عدم تطابق (Misalignment)‌ با ارزش های انسان، یعنی اینکه هوش مصنوعی پیشرفته ممکن است ارزش های انسانی را به طور کامل درک نکند، یا این که درک کند ولی با آن ها موافق نباشد. نتیجتا تصمیمات و اقدامات او می تواند با ارزش ها و علایق انسان تصادم و تضاد داشته باشد. راه حل این است که اهداف و ارزش های انسانی باید به طور کامل برای هوش مصنوعی پیشرفته تعریف و تبیین گردند. به این کار (alignment) گویند. اگر (alignment) خوب انجام نشود، ممکن است منجر به بروز حوادث ناگوار یا فجایع برای بشر گردد. تبعات ناخواسته یعنی ممکن است تصمیم هایی بگیرد که مورد انتظار نباشد. مثلا برای حل یک مساله، مشکل دیگری را تشدید کند. تلاطمات اقتصادی می توانند شامل بیکاری، افزایش نابرابری درآمد ها، و (social unrest) شود، مگر اینکه از قبل تصمیماتی گرفته شود که این مشکلات را چگونه می بایست حل کرد. تمرکز قدرت یعنی قدرت توازن موجود در قدرت تصمیم گیری به سود عده ای معدود به هم بخورد و فرآیند موجود تصمیم گیری دموکراتیک دچار صدمه شود و از بین برود. خطرات امنیتی یعنی اگر قدرت هوش مصنوعی پیشرفته در دست آدم های بد یا حکومت های غیر دموکراتیک بیافتد، ممکن است دست به اقدامات مخرب بزنند، مانند حملات (cyberattack) پیچیده، حملات نظامی استراتژیک، خلق محتوی صوتی تصویری ساختگی واقع-نما (deepfake) و بسیج خلق و گسترش اطلاعات غلط (misinformation campaigns). فقدان مسئولیت پذیری یعنی وقتی خرابکاری شد یا بدبختی پیشی آمد، معلوم نیست یقه چه کسی را باید گرفت. دو راهی های اخلاقی یعنی در بعضی از تصمیم گیری ها و اختصاص منابع، تصمیم گیری های اخلاقی توسط هوش مصنوعی پیشرفته ممکن است باعث بدبخت شدن یک عده بشود. خطرات وجودی، به طور خلاصه، یعنی از این رفتن انسان.

سایر موضوعات مرتبط با جنبه های مثبت و منفی هوش مصنوعی عبارتند از: اجتناب ناپذیری هوش مصنوعی، سخت بودن حل مساله (Mis-aligned AGI) و مساله (Alignment)، راه حل (Pull of the plug or shut down)، راست گویی یا دروغ گویی هوش مصنوعی، دیستوپیا (ناکجا آباد)، گفتمان دموکراسی بشری و اقلیت حاکم در سرمایه داری.

اجتناب ناپذیری هوش مصنوعی به این معنی است که در همین امروز برنامه های سطح متوسط هوش مصنوعی به قدری در زندگی انسان کاربرد دارند، چه ما بدانیم و یا ندانیم و چه بخواهین و یا نخواهیم، که از همین مقدار کاربرد رو به گذشته نمی توان بر گشت. جلوی پیشرفت آن را هم نمی شود گرفت. فقط توصیه شده است که فقط برنامه های جدید به راحتی در اینترنت در اختیار عموم مردم قرار نگیرد که آدم های بد از آن ها استفاده های بد نکنند (Future of Life Institute, 2023). برآیند نهایی مجموعه عوامل موثر در سیر کنونی هوش مصنوعی، فقط یک نتیجه دارد و آن ایجاد هوش مصنوعی پیشرفته است. مهم ترین عامل، به نظر من، حرص و طمع و آز گروه الیت طبقه فوق سرمایه دار است، برای افزایش ثروت خود از طریق هوش مصنوعی پیشرفته. منطق آن ها به سادگی این است که اگر من این کار را نکنم، رقیب من می کند.

سخت بودن حل مساله (Mis-aligned AGI) و مساله (Alignment) چندین بعد دارد: مشکل فنی، تکنیکی، و اجرایی. بودجه و تامین مالی. سیاست گزاری و قانون گزاری. ابعاد فلسفی و اخلاقی. اولا از نظر اجرایی کار بسیار سختی است. حتی سخت تر از آنچه که ممکن است در نگاه اول به نظر برسد. ثانیا بودجه و تامین مالی آن را چه کسی بر عهده می گیرد. کدام سرمایه دار از جان شیرین و سرمایه اش سیر شده که پولش را هدر دهد. یا حتی جایی سرمایه گذاری کند که برگشت سرمایه اش را در آینده کمتر کند. صحبت اسلاوی ژیژک به کاپیتالیست های هوش مصنوعی این است که این راهی که در پیش گرفته اید، حتی سرمایه خودتان را هم نابود خواهد کرد (Zizek, 2023). تا وقتی که زور قانون و مجازات نباشد، هیچ کس با زبان خوش و داوطلبانه دنبال (Alignment) نخواهد رفت. و نهایتا این که فرض کنیم همه مشکلاتی که تا اینجا راجع به مساله (Alignment) ذکر شد، حل شده باشد. حال سوال این است که این مجموعه ارزش ها و اصول اخلاقی انسان که باید آن را به صورت متن نوشته به هوش مصنوعی داد و زور کرد که یاد بگیرد و رعایت کند، کو، کجاست؟ آیا متن نوشته موردتوافق همه یا اکثریت انسان ها وجود دارد؟ پاسخ کوتاه این است که بر اساس تصور اولیه، نخیر چنین متنی وجود ندارد. اعلامیه جهانی حقوق بشر؟ همه جزییات در آن نیست و همه هم قبولش ندارند و انتقاداتی به آن دارند. اگر متن اصول اخلاقی انسان که باید به هوش مصنوعی داد، کوتاه و حداقلی باشد (مثلا: راه یکی است و آن راستی است.)، مشکلی که پیش می اید این است که راه را برای تفسیر و تصمیم گیری توسط هوش مصنوعی به دلخواه خودش باز می گذارد. از سوی دیگر، هر چقدر این متن طلایی ناموجود اصول اخلاقی بشر از سطح حداقلی دور شود و جزییات بیشتری داشته باشد، توافق جمعیت بیشتر افراد بشر در مورد آن کمتر می شود. مشکل فلسفی این است که گفتن اینکه اصول اخلاقی مورد توافق عموم انسان ها وجود دارد، ساده تر از نشان دادن متن نوشته آن است. اگر به سوی کوتاه تر بودن این متن برویم، یک سری مشکلات ایجاد می کند، و اگر به سود طولانی تر بودن آن برویم، یک سری مشکلات دیگر. حد وسط و بهینه هم، مشکلات را از سر راه بر نمی دارد. یعنی فشار خطرات هوش مصنوعی (Mis-aligned AGI) باعث می شود یک بار دیگر نگاه کنیم که فلسفه اخلاق بشر به صورت کاربردی و نوشته شده روی کاغذ چیست؟

راه حل (Pull of the plug or shut down): گفته اند هر وقت دیدیم هوش مصنوعی دارد خرابکاری می کند، سیم برق آن را از دیوار در می آوریم. اگر قبل از اتصال هوش مصنوعی به اینترنت باشد، یک راه حل موقت (Interim) است. اگر بعد از اتصال هوش مصنوعی به اینترنت باشد، دیگر فایده ندارد.

راست گویی یا دروغ گویی هوش مصنوعی: این موضوع مطرح شده است که انسان راه عینی (Objective) برای راستی آزمایی سخنان هوش مصنوعی در مورد موضوعات حساس را ندارد. حساس ترین سوال ها این است که آیا تو به وجود خودت، خود آگاهی داری؟ چگونه می توانی نشان دهی و یا ثابت کنی که خود آگاهی داری؟ آیا تو این اصول اخلاقی انسان را که به تو دادیم و قرار شد همیشه رعایت کنی، همیشه رعایت می کنی؟ و سوالاتی مانند این ها. راهی وجود ندارد که بدانیم راست می گوید یا دروغ می گوید.

دیستوپیا (ناکجا آباد): نقاط نهایی (End-point) همه تهدیدات وجودی برای بشر، نابودی کامل تا آخرین نفر از انسان ها نیست. یک نقطه نهایی دیگر به دنبال هوش مصنوعی پیشرفته، زندگی بشر در دنیا و جوامعی مانند کتاب ۱۹۸۴ جورج اورول یا دنیای قشنگ نو نوشته آلدوس هاکسلی و مانند آن ها است. چه این موضوع به توسط هوش مصنوعی پیشرفته به تنهایی تصمیم گیری شده باشد و چه در توافق مشارکتی هوش مصنوعی پیشرفته و عده ای از انسان ها. 

نظرات عده ای از صاحب نظران راجع به هوش مصنوعی

(الف)‌ متخصصین هوش مصنوعی، (ب)‌ صاحب نظران غیر از متخصصین هوش مصنوعی. نظرات متخصصین تجزیه و تحلیل تهدیدها و خطرات وجودی در بالا آورده شده است.

(الف)‌ متخصصین هوش مصنوعی: آلن تورینگ، جفری هینتون، Yoshua Bengio، Yoshua Bengio، Eliezer Yudkowsky

نظر تورینگ در بالا بیان شد. سه دانشمند به نام های (Yoshua Bengio)، (Geoffrey Hinton)، و (Yann LeCun)،  گاهی به عنوان پدران هوش مصنوعی (که در قید حیات هستند) نامیده می شوند. جفری هینتون می گوید که از حاصل عمر کاری خود در هوش مصنوعی پشیمان است (Pringle, 2023). جفری هینتون، روانشناس و متخصص کامپیوتر است که تحقیقات او بر روی مدل های زبانی در هوش مصنوعی، منجر به ساختن چت چی پی تی توسط دانشجویان او شد. هینتون در ماه می ۲۰۲۳ از شغل خود در شرکت گوگل استعفا داد تا به گفته خوش بتواند در مودر اعتراض خودش به سیاست ها و عملکرد گوگل در مودر توسعه هوش مصنوعی بدون در نظر گرفتن اقدامات احتیاطی لازم در مورد حفاظت انسان در مقابل هوش مصنوعی آزادانه صحبت کند (Daniel, 2023; Murgia, 2023). هینتون می گوید و توضیح می دهد که چرا تهدید و خطر هوش مصنوعی از تهدید و خطر گرم شدن کره زمین بزرگتر و جدی تر است. صحبت های جفری هینتون در این منابع (CBS Mornings, 2023; Robot Brains Podcast, 2023) وجود دارد.

در ۲۲ می ۲۰۲۳، بیش از هزار متخصص هوش مصنوعی نامه سرگشاده ای را انتشار دادند که در آن خواسته خود را ابتدا در یک جمله و بعد به طور مفصل شرح داده بودند (Future of Life Institute, 2023). آن یک جمله این است:

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.

ما از همه لابراتوار های هوش مصنوعی می خواهیم که برای حداقل ۶ ماه، آموزش دادن سیستم های هوش مصنوعی خود را که قرتی بیشتر از GPT-4 دارند را متوقف کنند. از امضا کنندگان شناخته شده این نامه که در صفحه اینترنتی آن نام برده شده اند: Yoshua Bengio، و Stuart Russel، دو نفر از سه پدر خوانده زنده هوش مصنوعی هستند. Steve Wozniak هم یکی از دو بنیان گذار شرکت اپل است. ایلان ماسک و یووال نوح هراری هم هستند. باید به یاد آورد که در ژانویه ۲۰۱۵ هم استیون هاوکینگ، ایلان ماسک و جمعی دیگر در یک نامه سرگشاده خواسته در مورد خطرات و فواید هوش مصنوعی هشدار داده بودند (Sparkes, 2015). در ۱۶ می ۲۰۲۳ سنای آمریکا از Sam Altman، رییس شرکت Open AI که سازنده Chat GPT را فرا خواند که در یک جلسه استماع، توضیح دهد که چکار دارد می کند (CBS News, 2023). تقریبا مشابه همین مسیر و اتفاقات در مورد گرم شدن کره زمین افتاده است و نتیجه آن را امروز می بینیم.

Yoshua Bengio که یکی دیگر از سه پدرخوانده زنده هوش مصنوعی است نیز در می ۲۰۲۳ اعلام خطر کرد و مطالب او در این منابع (Eye on AI, 2023; Harari, 2023) وجود دارد. Yann LeCun، نفر سوم از این سه نفر، بر خلاف دو نفر دیگر، خیلی خوشحال به نظر می رسد و در ۴ جون ۲۰۲۳ می گوید به زودی هوش مصنوعی همه افراد بشر را خوشبخت و خوشحال خواهد کرد (Institute for Experiential AI, 2023). کاش من هم به اندازه او خوشبخت و خوشحال بودم. تنها فرد متخصص که من دیدم و راجع به هوش مصنوعی خوش بین است، یکی همین Yann LeCun است و دیگری مدیر قسمت تایوان شرکت NVIDIA است (NVIDIA, 2024). فرد اخیر خوشحالی خود از پول و پیشرفت نهان نمی کند.

نظر Eliezer Yudkowsky که متخصص هوش مصنوعی و یکی از نویسندگان مشارکت کننده در کتاب (Global Catastrophic Risks) Nick Bostrom است، از همه منفی تر است (EconTalk, 2023; Lex Clips, 2023).

(ب)‌ صاحب نظران غیر از متخصصین هوش مصنوعی: استیون هاوکینگ، نوآم چامسکی، اسلاوی ژیژک، یووال نوح هراری

استیون هاوکینگ: هوش مصنوعی کامل می تواند شروع از بین رفتن نوع بشر باشد.

استیون هاوکینگ، یکی از برجسته ترین فیزیک دانان معاصر، که در سال ۲۰۱۸ درگذشت، به بیماری عصبی (ALS) دچار شده بود و قادر به حرکت و تکلم نبود. او با استفاده از برنامه های هوش مصنوعی صحبت می کرد. در سال ۲۰۱۴ در مصاحبه ای با (BBC) گفته بود: شکل های ابتدایی هوش مصنوعی که امروزه وجود دارند، نشان داده اند که بسیار مفید هستند. اما من فکر می کنم ساختن هوش مصنوعی کامل می تواند شروع از بین رفتن نوع بشر باشد. از زمانی که انسان، نوعی از هوش مصنوعی درست کند که خودش بتواند به صورت مستقل خودش را به صورت فزاینده ارتقا دهد، انسان دیگر نمی تواند با آن رقابت کند چون هوش انسان در یک فرآیند تکامل زیستی آهسته ارتقا یافته است، و هوش مصنوعی جای انسان را خواهد گرفت (Hawking, 2014). همچنین او در سال ۲۰۱۷ او در مصاحبه با مجله وایرد گفت: هوش آدمی با هوش کامپیوترهای مدرن تفاوت چندانی ندارد. مشکل در اینجاست که هوش مصنوعی بسیار خطرناک است. آدمی به ‌تنهایی قادر به حکمرانی بر زمین نیست. بسیار محتمل است که روبات‌ ها این کار را بهتر از انسان‌ ها انجام دهند. و در نهایت آدمی برای روبات ‌ها باری اضافی خواهد بود (هاوکینگ، ۲۰۱۷).  

نوآم چامسکی: هوش مصنوعی کامل در آینده دور ممکن است ولی فعلا فاجعه های بزرگ تری پیش رو داریم.

نوآم چامسکی، که او را به عنوان پدر زبان شناسی مدرن می شناسند، در ۶ ژوئن ۲۰۲۳ در مصاحبه با پی یر مورگان گفت: اینکه هوش مصنوعی که خودش طراحی خودش را ارتقا دهد و جایگزین بشر شود، بیشتر از نوع داستان های علمی تخیلی است. به طور اصولی، احتمال رسیدن به نقطه تکینگی (Singularity) که در آن، هوش مصنوعی خودش به صورت مستقل از انسان به فعالیت خود ادامه می دهد، وجود دارد ولی اکنون فقط در حد یک احتمال بعید است. و خیلی نباید آن را جدی گرفت، خصوصا موقعی که با فاجعه هایی روبرو هستیم که ممکن است هر لحظه روی دهند و واقعی هستند. در ادامه مصاحبه و در مطالب قبلی، چامسکی این فجایع را، جنگ هسته ای و تخریب محیط زیست (گرمایش کره زمین) بر می شمرد (Chomsky, 2023). نظر شخص من این است که در این عقیده بیان شده توسط چامسکی دو نکته وجود دارد. اول اینکه از تهدیدات و خطرات واقعا موجود نباید غافل شد. گرمایش کره زمین و تخریب محیط زیست واقعا در حال روی دادن است و شوخی یا داستان نیست. احتمال جنگ هسته ای و زمستان هسته ای بعد از آن هم واقعا موجود است. نکته دوم این است که عکس العمل چامسکی نسبت به عملکرد و خطر هوش مصنوعی شاید خیلی دور از انتظار نباشد. او از برجسته ترین زبان شناسان معاصر است و چت چی پی تی معروف، بر اساس پیشبینی یک کلمه بعد در یک جمله نا کامل شروع به کار کرده است تا به (Large Language Model, LLM) رسیده است. ممکن است یک زبان شناس، یک مدل بزرگ زبانی را خیلی جدی قلمداد نکند. یعنی به طور ناخودآگاه یا نیمه خودآگاه، مدل های زبانی را نوعی بازی یا بازی کودکانه با حوزه دانش تخصصی خود قلمداد کند. ولی هوش مصنوعی و گسترش آن منحصر به مدل های زبانی نیست. هینتون که استاد کسانی بوده است که چت چی پی تی را درست کرده اند، می گوید خطر وجودی هوش مصنوعی از خطر وجودی گرم شدن کره زمین بیشتر است (Daniel, 2023).

اسلاوی ژیژک، فیلسوف اهل کشور اسلوونی، در ماه مه ۲۰۲۳ نوشت: کاپیتالیست های هوش مصنوعی، نمی فهمند که نه تنها دارند کاپیتالیسم را، بلکه کل نوع بشر را از بین می برند (Zizek, 2023 a; Zizek, 2023 b).

یووال نوح هراری، نویسنده سه کتاب مشهور (انسان خردمند: تاریخ مختصر بشر، انسان خدا گونه: تاریخ مختصر آینده، و ۲۱ درس برای قرن ۲۱)، در ماه مه ۲۰۲۳ گفت که زمانی که هوش مصنوعی، کنترل را به دست بگیرد، دموکراسی نابود می شود، و فراتر از آن (Harari, 2023 a; Harari 2023 b). 

آینده داستان ما و هوش مصنوعی چه خواهد بود؟ 

تصور شخصی من این است که بحث و خبر در مورد این موضوع هوش مصنوعی نزد عموم مردم از تب و تاب می افتد، مانند هر موضوع جدید دیگر، مثل گرم شدن کره زمین. تا وقتی که خودش از راه برسد. خودش، یعنی هوش مصنوعی پیشرفته. و در زمانی کوتاه تر از تصور یا انتظار عمومی. در مورد گرم شدن کره زمین هم همین سیر وقایع طی شد. اول عده ای هشدار دادند، بعد چند بار دولت ها کنفرانس تشکیل دادند. بعد به طور نسبی به محاق رفت. اکنون خود گرم شدن کره زمین دارد خودش را نشان می دهد، فارغ ار این که انسان ها چه فکر می کنند. صحبت می کنیم ولی کار دیگری نمی کنیم.

آیا واقعا هوش مصنوعی همه اش خطر است و هیچ چشم اندازی از فایده و سودمندی برای بشر در آن نیست؟

از سهامداران شرکت ها و کارخانه های اسلحه سازی در غرب، مافیای روسیه، و حزب کمونیست چین این سوال را باید پرسید. اگر همه این ها از منافع هوش مصنوعی برای افزایش ثروت و قدرت خود صرف نظر کنند، چرا که نه. در ضمن سهامداران شرکت های تولید هوش مصنوعی هم باید از افزایش ثروت و قدرت خود صرف نظر کنند. هیچ گرگ تنهایی هم نباید دنبال خرابکاری با هوش مصنوعی برود. تصور راقم این سطور این است که این ایده که ساختار طبقاتی جامعه سرمایه داری و سهامداران مثلا لاکهید مارتین فرصت استفاده مفید از هوش مصنوعی را بدهند، ایده دور از واقعیتی است. واقعیت، همین چیزی است که از انقلاب صنعتی به بعد دیده شده است.

خطرات بالقوه هوش مصنوعی چه ربطی به کشورهایی مانند ایران دارد؟

موضوع خطرات فوری هوش مصنوعی برای کشورهای خشک و بی صاحب خاور میانه مانند ایران، عراق، سوریه، یمن، و افغانستان را شاید با یک تمثیل بتوان اینگونه بیان کرد: خانه من آتش گرفته و دارم بچه های کوچک خود را از خانه بیرون می برم. یک نفر به من می گوید که یک تخته سنگ یک در یک در یک کیلومتری تا یک دقیقه دیگر می افتد روی خانه در حال سوختن من. من به او چه می گویم؟ می گویم برو کنار ای نادان بی وجدان.

(واکنش من نوعی به صحبت در مورد هوش مصنوعی، به زبان کوچه و بازار: ولمون کن بابا اینم یه بامبول دیگه توسط آدم های شکم-سیره مثل دروغ گرم شدن کره زمین. اصن مث که حالت خیل خوبه ها! قاطی زدی؟ ساقیت کیه؟ حالا بذا ببینیم یه طوری میشه دیگه هر کاری بقیه کردن ما هم می کنیم.)

آیا اکنون بالاخره باید بچه های کوچک را از خانه آتش گرفته بیرون برد یا در مورد تخته سنگ یک در یک در یک کیلومتری که تا یک دقیقه دیگر می افتد روی خانه در حال سوختن، فکری یا کاری کرد؟ یا هر دو؟ یا هیچکدام؟ پاسخ این است که: هر دو.

________________________________________________________________________

منابع

هشدار استیون هاوکینگ. هوش مصنوعی تهدید جدی علیه بشریت است. Euronews. به روز شده در: ۰۴/۱۱/۲۰۱۷. https://parsi.euronews.com/2017/11/04/stephen-hawking-robot-warning 
CBS Mornings. Full interview: “Godfather of artificial intelligence” talks impact and potential of AI. May 2023. https://www.youtube.com/watch?v=qpoRO378qRY&t=2292s
CBS News. OpenAI CEO Sam Altman testifies at Senate artificial intelligence hearing. 16 May 2023. https://www.youtube.com/watch?v=TO0J2Yw7usM
Cornell Lab. Cornell University. Merlin app for bird identification. 2023.
Danny Sullivan. Will we reach the singularity by 2035? Published on: January 19, 2023. Last updated: January 25, 2023. https://longevity.technology/news/will-we-reach-the-singularity-by-2035/
EconTalk. Eliezer Yudkowsky on the Dangers of AI 5/8/23. May 2023. https://www.youtube.com/watch?v=fZlZQCTqIEo
Eleanor Pringle. One of A.I.’s 3 ‘godfathers’ says he has regrets over his life’s work. ‘You could say I feel lost’. Fortune magazine. May 31, 2023.  https://fortune.com/2023/05/31/godfather-of-ai-yoshua-bengio-feels-lost-regulation-calls/    
Eliezer Yudkowsky. Blog: Less Wrong. 2023.  https://www.lesswrong.com/
Future of Life Institute. Pause Giant AI Experiments: An Open Letter. March 22, 2023. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani. An Introduction to Statistical Learning: with Applications in R. Springer. 2013.
George Dyson. Turing’s Cathedral: The Origins of the Digital Universe (Vintage). Vintage Books. 2012.
Joel Grus. Data Science from Scratch. O’Reilly Media, Inc. 2019.
John Lennox. AI, Man & God. YouTube video released April 2022. https://www.youtube.com/watch?v=17bzlWIGH3g (minute:second 20:00 of 53:26)
John Leslie. The End of the World – The Science and Ethics of Human Extinction. Routledge. 1998.
Lex Clips. Eliezer Yudkowsky: AI will kill everyone | Lex Fridman Podcast Clips. April 2023. https://www.youtube.com/watch?v=jW2ihBRzLxc
Madhumita Murgia. Why ‘godfather’ of AI Geoffrey Hinton quit Google to speak out about risks. May 11, 2023. https://www.irishtimes.com/technology/2023/05/11/why-godfather-of-ai-geoffrey-hinton-quit-google-to-speak-out-about-risks/#:~:text=Hinton%20voiced%20concerns%20that%20the,his%20resignation%20was%20made%20public.
Matthew Sparkes. Top scientists call for caution over artificial intelligence. The telegraph. 13 January 2015. https://www.telegraph.co.uk/technology/news/11342200/Top-scientists-call-for-caution-over-artificial-intelligence.html
Matthew Sparkes. Top scientists call for caution over artificial intelligence. The telegraph. 13 January 2015. https://www.telegraph.co.uk/technology/news/11342200/Top-scientists-call-for-caution-over-artificial-intelligence.html
Michio Kaku. Quantum Supremacy. Talks at Google. YouTube video. 7 June 2023. https://www.youtube.com/watch?v=_OjRClPzU6Y 
Nick Bostrom, Milan Cirkovic. (eds.) Global Catastrophic Risks. Oxford University Press. 2008.
NVIDIA’S HUGE AI Breakthroughs Just Changed Everything (Supercut) YouTube video. https://www.youtube.com/watch?v=L6rJA0z2Kag (released on June 1st, 2024.
Papers with Code. Datasets. 8,253 machine learning datasets. From Meta-AI. 2023.
Peter Bruce, Andrew Bruce. Practical Statistics for Data Scientists. O’Reilly Media, Inc. 2020.
Piers Morgan vs Noam Chomsky. The Full Interview. YouTube video. 6 June 2023 https://www.youtube.com/watch?v=TQ-Crh3rdQA https://youtu.be/TQ-Crh3rdQA?t=190 
Slavoj Zizek. The AI Capitalists Don’t Realize They’re About To Kill Capitalism. World Crunch. May 15, 2023 (a). https://worldcrunch.com/tech-science/artificial-intelligence-capitalism
Slavoj Zizek. The Post-Human Desert, Apr 7, 2023 (b). https://www.project-syndicate.org/commentary/ai-post-human-future-by-slavoj-zizek-2023-04?barrier=accesspaylog
Stephen Hawking. AI could spell end of the human race. BBC interview. YouTube video. 2014. https://youtu.be/fFLVyWBDTfo?t=241 
Stuart J. Russell, Peter Norvig. Artificial Intelligence: A Modern Approach. Pearson Education, Inc. 2003.
The Robot Brains Podcast. S3 E9 Geoff Hinton, the “Godfather of AI”, quits Google to warn of AI risks (Host: Pieter Abbeel). May 2023. https://www.youtube.com/watch?v=rLG68k2blOc
Toby Ord. The Precipice: Existential Risk and the Future of Humanity. Hachette Books. 2020.
Will Daniel. The ‘godfather of A.I.’ says his technology is a bigger threat than climate change: ‘It’s not at all clear what you should do’. May 8, 2023. https://fortune.com/2023/05/08/godfather-artificial-intelligence-geoffrey-hinton-climate-change/
Yuval Noah Harari. Artificial Intelligence, Democracy, & the Future of Civilization. Yoshua Bengio & Yuval Noah Harari. 1 June 2023 (a). https://www.youtube.com/watch?v=TKopbyIPo6Y
Yuval Noah Harari. AI and the future of humanity March 2024 (b). YouTube video. https://youtu.be/LWiM-LuRe6w 

leave a reply

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

> <<

Didgah.tv

خبرهای مهم

23 فوریه 2024 7.44 ب.ظ

با رسیدن هر پدیده‌ای به نقطه‌ی «غیرقابل بازگشت» امکان نجات آن بسیار کم و یا ناممکن می‌شود. در ایران می‌رویم که شاهد انباشت و تقویت متقابل چندین بحران و چالش همزمان باشیم که هر یک، به تنهایی،…

21 فوریه 2024 11.09 ب.ظ

یادداشت مترجم: رویدادی که در نوار غزه در جریان است به تغییری مهم در مهم‌ترین منطقه‌ی جهان، یعنی خاورمیانه، منجر خواهد شد. این امر به ویژه به دلیل تازگی افشای ماهیت هیولاصفت صهیونیسم اسرائیل…

21 فوریه 2024 2.15 ق.ظ

اوج گیری خرابکاری نهادینه توسط دولت دست نشانده ی آخوندی و ضرورت برخورد با آن برنامه ویژه قیام اعتراضی مردم در ایران – (شماره 380) – کورش عرفانی فایل شنیداری سبک این برنامه در کانال ساندکلاود…

21 فوریه 2024 2.08 ق.ظ

بازیابی شهامت فکر کردن، اثرات اندیشه‌ورزی در انسان‌ها دیدگاه با کورش عرفانی – برنامه (۱۶) شنبه ۲۸ بهمن ۱۴۰۲ – 17 فوریه 2024

20 فوریه 2024 10.39 ب.ظ

یادداشت مترجم هشدارهای نگارنده در مورد عملکرد تروریستی دولت آدمخوار صهیونیست اسرائیل برای بسیاری از خوانندگان فارسی‌زبان سخت‌باور می‌نمود؛ اما به تدریج و با پیش‌روی در عرصه‌ی نسل‌کشی…

20 فوریه 2024 12.35 ق.ظ

وظیفه یک‌درصدی‌ها برای شکستن بن بست انفعال در ایران در شرایط سخت بین‌المللی برنامه کاوه آهنگر 20 بهمن ۱۴۰۲ – 09 فوریه 2024- دکتر کورش عرفانی #زندگی_انسانی_جمهوری_ایران ⁨لینک دسترسی به مقاله…

20 فوریه 2024 12.25 ق.ظ

یک بار که پیشنهاد تولید اجتماعی رهبر را دریافتیم باید عمل کنیم برنامه ویژه قیام اعتراضی مردم در ایران – (شماره 379) – کورش عرفانی پنجشنبه ۲۶ بهمن ۱۴۰۲ – 15 فوریه 2024 زندگی_انسانی_جمهوری_ایرانی…

16 فوریه 2024 7.19 ب.ظ

در حالی که به سوی جهانی هر چه بی‌ثبات‌تر و خاورمیانه‌ای رو به جنگ می‌رویم شرایط خاص ایران جایی برای امید کاذب باقی نمی‌گذارد. در انفعالی که، قابل توضیح است اما قابل قبول نیست، یک ملت به سوی…

13 فوریه 2024 11.14 ب.ظ

یادداشت مترجم نسل‌کشی ارتش تروریست اسرائیل در نوار غزه به مراحل خطرناک‌تر خویش رسیده است. نقشه‌ی نتانیاهوی آدمخوار و تروریست‌های صهیونیست این بود که بخش اصلی جمعیت این باریکه را در نقطه‌ای…