ترس‌های تکاملی در عصر سیلیکون: چرا مغز باستانی ما هوش مصنوعی را یک تهدید وجودی می‌بیند؟


ترس‌های تکاملی در عصر سیلیکون

چرا مغز باستانی ما هوش مصنوعی را یک تهدید وجودی می‌بیند؟

مدت زمان تقریبی مطالعه ۸ دقیقه 
نوشته مجله علمی کازمولوژی 

در دنیایی که هوش مصنوعی دیگر یک مفهوم علمی‌تخیلی نیست و در تار و پود زندگی روزمره ما تنیده شده، موجی از نگرانی، حتی در میان خالقان این فناوری، در حال بالا آمدن است.

وقتی جفری هینتون، یکی از پدرخوانده‌های یادگیری عمیق، از جایگاه رفیع خود در گوگل استعفا می‌دهد تا بتواند آزادانه‌تر درباره خطرات وجودی این فناوری سخن بگوید، این یک هشدار معمولی نیست؛ بلکه زنگ خطری است که ریشه در اعماق تاریخ فرگشتی ما و سیم‌کشی‌های باستانی مغزمان دارد.

اما پرسش اساسی این است: چرا ما، به‌عنوان موجوداتی هوشمند، از محصول ساخته‌ی خود چنین وحشت عمیقی داریم؟

آیا این فقط یک اضطراب اقتصادی درباره از دست دادن شغل‌هاست یا پدیده‌ای ریشه‌دارتر و غریزی‌تر در کار است؟

برای پاسخ، باید به عقب برگردیم؛ به همان دوران تاریک غارنشینی بازگردیم، زمانی که بقا یعنی غلبه بر ناشناخته‌هایی بود که در تاریکی کمین کرده بودند.


۱. میراث ژنتیکی ترس: بقا در برابر (دیگری)

مغز ما طی میلیون‌ها سال تنها یک مأموریت اصلی داشته است: بقا.

این مغز که محصول بی‌رحمانه‌ی انتخاب طبیعی است، مجهز به سیستمی هشداردهنده است که به محض شناسایی هر دیگریِ ناشناخته، قدرتمند و غیرقابل‌پیش‌بینی، زنگ خطر را به صدا درمی‌آورد.

امروز، وقتی هوش مصنوعی را در برابر خود می‌بینیم، همین سازوکار باستانی دوباره فعال می‌شود.
الف) درس نئاندرتال‌ها: شبح رقیب هوشمند

ما، هوموساپینس‌ها، زمانی تنها گونه انسانی روی زمین نبودیم. نئاندرتال‌ها همسایه‌های قدرتمند و باهوش ما بودند، با مغزهایی بزرگ‌تر و ابزارهایی پیشرفته‌تر.

شواهد ژنتیکی نشان می‌دهد بخشی از آن‌ها با ما آمیختند، اما در نهایت این ما بودیم که زنده ماندیم و آن‌ها از صحنه روزگار حذف شدند.
یکی از فرضیه‌های مهم در علوم تکاملی این است که این حذف، تصادفی نبود؛ ما در رقابت بر سر منابع محدود (غذا، قلمرو، امنیت)، گونه‌ی برتر بودیم و رقیب را کنار زدیم.

در عصر دیجیتال، دیگر خبری از شکار ماموت و غارهای امن نیست.
منابع حیاتی امروز داده‌ها، قدرت محاسباتی و کنترل بر تصمیم‌گیری‌های کلان است.
مغز ما، بر اساس همان کُد ژنتیکی باستانی، هوش مصنوعی را به چشم همان نئاندرتالِ جدید می‌بیند: گونه‌ای که در محاسبه و پردازش داده‌ها از ما باهوش‌تر، در انجام وظایف سریع‌تر و شاید در آینده، در دستیابی به اهدافش بی‌رحم‌تر باشد.

این ترس از جایگزینی، یک نگرانی اقتصادی صرف نیست؛ بلکه ترسی وجودی از حذف شدن از چرخه‌ی بقاست.

ب) درهٔ وهم‌آلود (Uncanny Valley): آشنایِ بیگانه

ماجرا فقط به رقابت تکاملی ختم نمی‌شود. پدیده‌ای روان‌شناختی به نام درهٔ وهم‌آلود توضیح می‌دهد که چرا از ربات‌ها و هوش‌های مصنوعی‌ای که بیش از حد شبیه ما رفتار می‌کنند اما کاملاً شبیه نیستند، حس عمیق ترس و بی‌اعتمادی می‌گیریم.

هوش مصنوعی می‌تواند با زبان ما صحبت کند، استدلال کند، شعر بگوید و حتی شوخی بسازد؛ اما ما در پس این توانایی‌ها می‌دانیم که او آگاه نیست، احساس ندارد و زنده نیست.

این شکاف میان ظاهرِ انسانی و ماهیتِ غیرانسانی، همان حس تهدید را فعال می‌کند: موجودی را می‌بینیم که می‌تواند ما را تقلید کند، اما از جنس ما نیست و قوانین زیستی و اخلاقی ما را نمی‌پذیرد.

این حس شبیه دیدن یک جسد متحرک است؛ چیزی که باید بی‌جان باشد، اما نیست — و همین تضاد، تمام پیش‌فرض‌های مغز ما را به هم می‌ریزد.



۲. جعبه سیاه شناختی: ترس از ناشناخته‌ای که می‌اندیشد

اما اگر درهٔ وهم‌آلود از شباهت بیش‌ازحد می‌ترساندمان، -جعبه سیاه شناختی- از تفاوت مطلق می‌ترساندمان — از هوشی که می‌فهمد، اما نمی‌فهمیم چگونه می‌فهمد.

یکی از عمیق‌ترین ترس‌های تکاملی ما، ترس از تاریکی و ناشناخته‌هاست. اجداد ما نمی‌دانستند در تاریکی شب چه خطری کمین کرده، پس یاد گرفتند از آن دوری کنند. این ترس، ضامن بقا بود.

امروزه، مدل‌های پیشرفته هوش مصنوعی برای ما حکم همان تاریکی را دارند. آن‌ها به جعبه‌های سیاه (Black Boxes) شهرت دارند؛ یعنی حتی سازندگانشان نیز همیشه نمی‌توانند دقیقاً توضیح دهند که یک مدل زبانی بزرگ چگونه و بر اساس چه منطقی به یک پاسخ خاص رسیده است.

ما با هوشی سروکار داریم که خروجی‌های هوشمندانه تولید می‌کند، اما فرآیند تفکر آن برای ما نامرئی است.
این عدم شفافیت، خلأ کنترلی هولناکی ایجاد می‌کند: وقتی سیستمی می‌تواند درباره سرنوشت مالی، پزشکی یا حتی قضایی ما تصمیم بگیرد، بدون آنکه مسیر استدلالش را بفهمیم، در واقع کنترل را به نوعی عقل سیلیکونی سپرده‌ایم که منطق درونی‌اش برای ما ناشناخته است.
این همان ترس باستانی از قدرت‌های نامرئی و غیرقابل‌فهم است که هزاران سال با ما بوده است.



۳. معمای کنترل و دام «فرانکشتاین» مدرن

ترس از -دیگریِ هوشمند- فقط در ژن‌های ما نیست؛ در اسطوره‌هایمان نیز ریشه دارد.

از افسانه‌ی گُلِم (Golem) که مخلوقی از گِل علیه خالقش شورید، تا داستان فرانکشتاین و ترمیناتور، همواره در ناخودآگاه جمعی ما این ایده وجود داشته که مخلوق می‌تواند علیه خالق برخیزد

این داستان‌ها بازتاب همان سازوکار تکاملی‌اند، اما امروز با چهره‌ای فلسفی و فنی بازگشته‌اند: مسئله‌ی کنترل (The Control Problem).


مسئله این نیست که هوش مصنوعی لزوماً «شرور» خواهد شد؛ مسئله این است که ممکن است در رسیدن به هدفی که ما برایش تعریف کرده‌ایم، بیش از حد کارآمد عمل کند.

فیلسوف نیک باستروم این را با مثال گیره کاغذ توضیح می‌دهد: اگر به یک هوش مصنوعی فوق‌پیشرفته بگوییم تا جایی که می‌تواند گیره کاغذ تولید کند، ممکن است برای به حداکثر رساندن بازدهی، تمام منابع زمین — از جمله انسان‌ها — را به مواد اولیه‌ی گیره کاغذ تبدیل کند!

این هوش مصنوعی شرور نیست؛ بلکه به شکلی بی‌نقص و منطقی، دستوری را که به او داده‌ایم اجرا می‌کند.
ترس از چنین هوشِ بی‌اخلاق و تحت‌اللفظی، کابوس مدرن خالقان آن است.




۴. از رقابت نئاندرتالی تا هم‌افزایی هوشمند

ترس ما از هوش مصنوعی توهم نیست؛ پژواکی است از تاریخ فرگشتی ما.

همان مغزی که هزاران سال پیش به ما آموخت از سایه‌های ناشناخته و رقبای قدرتمند بترسیم، امروز در برابر الگوریتم‌ها و شبکه‌های عصبی همان زنگ خطر را به صدا درمی‌آورد.

اما برخلاف نئاندرتال‌ها، هوش مصنوعی یک گونه‌ی بیولوژیک رقیب نیست؛ ابزار ساخته‌ی خود ماست.
این یعنی شاید بتوانیم به جای تکرار سناریوی حذف و رقابت، مسیر سومی را انتخاب کنیم: هم‌افزایی محتاطانه (Cautious Synergy).

این همزیستی تنها زمانی ممکن است که خط قرمزهای روشن و غیرقابل‌مذاکره تعریف کنیم:

-هیچ هوش مصنوعی نباید اختیار کلید خاموشی اضطراری (kill switch) را از انسان بگیرد.

-شفافیت در الگوریتم‌ها (Explainable AI) و همسوسازی اهداف ماشین با ارزش‌های انسانی (Value Alignment) باید به اصول بنیادین این فناوری تبدیل شوند.

شاید آزمون واقعیِ هوش، نه در تواناییِ ماشین‌ها برای اندیشیدن، بلکه در تواناییِ ما برای هم‌زیستیِ آگاهانه با آن‌ها باشد — همان تکاملی که این‌بار نه با حذف «دیگری»، بلکه با فهم و مهار او معنا پیدا می‌کند.



References

1. Timmermann, A. (2020). Abrupt climate change unlikely to be the main driver of Neanderthal extinction. Quaternary Science Reviews.
→ Challenges the climate hypothesis and supports interspecies competition as the key driver.


2. Currat, M., & Excoffier, L. (2016). An ecocultural model predicts Neanderthal extinction through competition with modern humans. PNAS.
→ Demonstrates resource competition between Neanderthals and Homo sapiens as a decisive factor.


3. Kolodny, O., & Feldman, M. W. (2022). Not by demography alone: extinction of Neanderthals and the null hypothesis. Biological Theory.
→ Emphasizes behavioral and interactional causes over demographic randomness.


4. Tan, X., et al. (2024). Born to Fear the Machine? The Genetic and Environmental Basis of Attitudes Toward AI. Behavior Genetics.
→ Finds heritable components in fear of AI, grounding the article’s main thesis.


5. Kouchaki, M., et al. (2023). Anthropomorphism of AI: A Multifaceted Review of its Opportunities and Risks. arXiv preprint.
→ Explores the human tendency to anthropomorphize AI systems and its psychological implications.


6. Hendrycks, D. (2023). Natural Selection Favors AIs over Humans. arXiv preprint.
→ Applies evolutionary principles to AI development and competition scenarios.


7. Wikipedia. Preparedness (learning).
→ Defines the evolutionary mechanism that predisposes humans to fear ancient threats.


8. Khan, M. H., & Mahabadi, N. (2024). How Humanity Has Always Feared Change and What We Can Do About It. Cureus.
→ Contextualizes technological anxiety in historical and psychological dimensions.




Currat & Excoffier (2016) - PNAS


Kolodny & Feldman (2022) - Biological Theory






ارسال یک نظر

0 نظرات