چرا مغز باستانی ما هوش مصنوعی را یک تهدید وجودی میبیند؟
مدت زمان تقریبی مطالعه ۸ دقیقه
نوشته مجله علمی کازمولوژی
در دنیایی که هوش مصنوعی دیگر یک مفهوم علمیتخیلی نیست و در تار و پود زندگی روزمره ما تنیده شده، موجی از نگرانی، حتی در میان خالقان این فناوری، در حال بالا آمدن است.
وقتی جفری هینتون، یکی از پدرخواندههای یادگیری عمیق، از جایگاه رفیع خود در گوگل استعفا میدهد تا بتواند آزادانهتر درباره خطرات وجودی این فناوری سخن بگوید، این یک هشدار معمولی نیست؛ بلکه زنگ خطری است که ریشه در اعماق تاریخ فرگشتی ما و سیمکشیهای باستانی مغزمان دارد.
اما پرسش اساسی این است: چرا ما، بهعنوان موجوداتی هوشمند، از محصول ساختهی خود چنین وحشت عمیقی داریم؟
آیا این فقط یک اضطراب اقتصادی درباره از دست دادن شغلهاست یا پدیدهای ریشهدارتر و غریزیتر در کار است؟
برای پاسخ، باید به عقب برگردیم؛ به همان دوران تاریک غارنشینی بازگردیم، زمانی که بقا یعنی غلبه بر ناشناختههایی بود که در تاریکی کمین کرده بودند.
۱. میراث ژنتیکی ترس: بقا در برابر (دیگری)
مغز ما طی میلیونها سال تنها یک مأموریت اصلی داشته است: بقا.
این مغز که محصول بیرحمانهی انتخاب طبیعی است، مجهز به سیستمی هشداردهنده است که به محض شناسایی هر دیگریِ ناشناخته، قدرتمند و غیرقابلپیشبینی، زنگ خطر را به صدا درمیآورد.
امروز، وقتی هوش مصنوعی را در برابر خود میبینیم، همین سازوکار باستانی دوباره فعال میشود.
الف) درس نئاندرتالها: شبح رقیب هوشمند
ما، هوموساپینسها، زمانی تنها گونه انسانی روی زمین نبودیم. نئاندرتالها همسایههای قدرتمند و باهوش ما بودند، با مغزهایی بزرگتر و ابزارهایی پیشرفتهتر.
شواهد ژنتیکی نشان میدهد بخشی از آنها با ما آمیختند، اما در نهایت این ما بودیم که زنده ماندیم و آنها از صحنه روزگار حذف شدند.
یکی از فرضیههای مهم در علوم تکاملی این است که این حذف، تصادفی نبود؛ ما در رقابت بر سر منابع محدود (غذا، قلمرو، امنیت)، گونهی برتر بودیم و رقیب را کنار زدیم.
در عصر دیجیتال، دیگر خبری از شکار ماموت و غارهای امن نیست.
منابع حیاتی امروز دادهها، قدرت محاسباتی و کنترل بر تصمیمگیریهای کلان است.
مغز ما، بر اساس همان کُد ژنتیکی باستانی، هوش مصنوعی را به چشم همان نئاندرتالِ جدید میبیند: گونهای که در محاسبه و پردازش دادهها از ما باهوشتر، در انجام وظایف سریعتر و شاید در آینده، در دستیابی به اهدافش بیرحمتر باشد.
این ترس از جایگزینی، یک نگرانی اقتصادی صرف نیست؛ بلکه ترسی وجودی از حذف شدن از چرخهی بقاست.
ب) درهٔ وهمآلود (Uncanny Valley): آشنایِ بیگانه
ماجرا فقط به رقابت تکاملی ختم نمیشود. پدیدهای روانشناختی به نام درهٔ وهمآلود توضیح میدهد که چرا از رباتها و هوشهای مصنوعیای که بیش از حد شبیه ما رفتار میکنند اما کاملاً شبیه نیستند، حس عمیق ترس و بیاعتمادی میگیریم.
هوش مصنوعی میتواند با زبان ما صحبت کند، استدلال کند، شعر بگوید و حتی شوخی بسازد؛ اما ما در پس این تواناییها میدانیم که او آگاه نیست، احساس ندارد و زنده نیست.
این شکاف میان ظاهرِ انسانی و ماهیتِ غیرانسانی، همان حس تهدید را فعال میکند: موجودی را میبینیم که میتواند ما را تقلید کند، اما از جنس ما نیست و قوانین زیستی و اخلاقی ما را نمیپذیرد.
این حس شبیه دیدن یک جسد متحرک است؛ چیزی که باید بیجان باشد، اما نیست — و همین تضاد، تمام پیشفرضهای مغز ما را به هم میریزد.
۲. جعبه سیاه شناختی: ترس از ناشناختهای که میاندیشد
اما اگر درهٔ وهمآلود از شباهت بیشازحد میترساندمان، -جعبه سیاه شناختی- از تفاوت مطلق میترساندمان — از هوشی که میفهمد، اما نمیفهمیم چگونه میفهمد.
یکی از عمیقترین ترسهای تکاملی ما، ترس از تاریکی و ناشناختههاست. اجداد ما نمیدانستند در تاریکی شب چه خطری کمین کرده، پس یاد گرفتند از آن دوری کنند. این ترس، ضامن بقا بود.
امروزه، مدلهای پیشرفته هوش مصنوعی برای ما حکم همان تاریکی را دارند. آنها به جعبههای سیاه (Black Boxes) شهرت دارند؛ یعنی حتی سازندگانشان نیز همیشه نمیتوانند دقیقاً توضیح دهند که یک مدل زبانی بزرگ چگونه و بر اساس چه منطقی به یک پاسخ خاص رسیده است.
ما با هوشی سروکار داریم که خروجیهای هوشمندانه تولید میکند، اما فرآیند تفکر آن برای ما نامرئی است.
این عدم شفافیت، خلأ کنترلی هولناکی ایجاد میکند: وقتی سیستمی میتواند درباره سرنوشت مالی، پزشکی یا حتی قضایی ما تصمیم بگیرد، بدون آنکه مسیر استدلالش را بفهمیم، در واقع کنترل را به نوعی عقل سیلیکونی سپردهایم که منطق درونیاش برای ما ناشناخته است.
این همان ترس باستانی از قدرتهای نامرئی و غیرقابلفهم است که هزاران سال با ما بوده است.
۳. معمای کنترل و دام «فرانکشتاین» مدرن
ترس از -دیگریِ هوشمند- فقط در ژنهای ما نیست؛ در اسطورههایمان نیز ریشه دارد.
از افسانهی گُلِم (Golem) که مخلوقی از گِل علیه خالقش شورید، تا داستان فرانکشتاین و ترمیناتور، همواره در ناخودآگاه جمعی ما این ایده وجود داشته که مخلوق میتواند علیه خالق برخیزد
این داستانها بازتاب همان سازوکار تکاملیاند، اما امروز با چهرهای فلسفی و فنی بازگشتهاند: مسئلهی کنترل (The Control Problem).
مسئله این نیست که هوش مصنوعی لزوماً «شرور» خواهد شد؛ مسئله این است که ممکن است در رسیدن به هدفی که ما برایش تعریف کردهایم، بیش از حد کارآمد عمل کند.
فیلسوف نیک باستروم این را با مثال گیره کاغذ توضیح میدهد: اگر به یک هوش مصنوعی فوقپیشرفته بگوییم تا جایی که میتواند گیره کاغذ تولید کند، ممکن است برای به حداکثر رساندن بازدهی، تمام منابع زمین — از جمله انسانها — را به مواد اولیهی گیره کاغذ تبدیل کند!
این هوش مصنوعی شرور نیست؛ بلکه به شکلی بینقص و منطقی، دستوری را که به او دادهایم اجرا میکند.
ترس از چنین هوشِ بیاخلاق و تحتاللفظی، کابوس مدرن خالقان آن است.
۴. از رقابت نئاندرتالی تا همافزایی هوشمند
همان مغزی که هزاران سال پیش به ما آموخت از سایههای ناشناخته و رقبای قدرتمند بترسیم، امروز در برابر الگوریتمها و شبکههای عصبی همان زنگ خطر را به صدا درمیآورد.
اما برخلاف نئاندرتالها، هوش مصنوعی یک گونهی بیولوژیک رقیب نیست؛ ابزار ساختهی خود ماست.
این یعنی شاید بتوانیم به جای تکرار سناریوی حذف و رقابت، مسیر سومی را انتخاب کنیم: همافزایی محتاطانه (Cautious Synergy).
این همزیستی تنها زمانی ممکن است که خط قرمزهای روشن و غیرقابلمذاکره تعریف کنیم:
-هیچ هوش مصنوعی نباید اختیار کلید خاموشی اضطراری (kill switch) را از انسان بگیرد.
-شفافیت در الگوریتمها (Explainable AI) و همسوسازی اهداف ماشین با ارزشهای انسانی (Value Alignment) باید به اصول بنیادین این فناوری تبدیل شوند.
شاید آزمون واقعیِ هوش، نه در تواناییِ ماشینها برای اندیشیدن، بلکه در تواناییِ ما برای همزیستیِ آگاهانه با آنها باشد — همان تکاملی که اینبار نه با حذف «دیگری»، بلکه با فهم و مهار او معنا پیدا میکند.
References
1. Timmermann, A. (2020). Abrupt climate change unlikely to be the main driver of Neanderthal extinction. Quaternary Science Reviews.
→ Challenges the climate hypothesis and supports interspecies competition as the key driver.
2. Currat, M., & Excoffier, L. (2016). An ecocultural model predicts Neanderthal extinction through competition with modern humans. PNAS.
→ Demonstrates resource competition between Neanderthals and Homo sapiens as a decisive factor.
3. Kolodny, O., & Feldman, M. W. (2022). Not by demography alone: extinction of Neanderthals and the null hypothesis. Biological Theory.
→ Emphasizes behavioral and interactional causes over demographic randomness.
4. Tan, X., et al. (2024). Born to Fear the Machine? The Genetic and Environmental Basis of Attitudes Toward AI. Behavior Genetics.
→ Finds heritable components in fear of AI, grounding the article’s main thesis.
5. Kouchaki, M., et al. (2023). Anthropomorphism of AI: A Multifaceted Review of its Opportunities and Risks. arXiv preprint.
→ Explores the human tendency to anthropomorphize AI systems and its psychological implications.
6. Hendrycks, D. (2023). Natural Selection Favors AIs over Humans. arXiv preprint.
→ Applies evolutionary principles to AI development and competition scenarios.
7. Wikipedia. Preparedness (learning).
→ Defines the evolutionary mechanism that predisposes humans to fear ancient threats.
8. Khan, M. H., & Mahabadi, N. (2024). How Humanity Has Always Feared Change and What We Can Do About It. Cureus.
→ Contextualizes technological anxiety in historical and psychological dimensions.
Currat & Excoffier (2016) - PNAS
0 نظرات