آیا هوش مصنوعی پیشرفته باعث انقراض انسان میشود؟
نشست اخیر نهاد غیرانتفاعی هیومنیتی پلاس (Humanity+) به صحنه تقابل شدید میان متخصصان برجسته فناوری و ترنسهیومنیستها راجع به آینده هوش مصنوعی عمومی (AGI) تبدیل شد.
در این مناظره، الیزر یادکوفسکی (Eliezer Yudkowsky)، از مخالفان سرسخت توسعه هوش مصنوعی، هشدار داد که ساخت هوش مصنوعی عمومی میتواند به نابودی بشریت منجر شود، در حالی که مدافعانی نظیر مکس مور (Max More) معتقدند این فناوری تنها راه نجات انسان از بیماری و پیری است.
هشدار راجع به ماهیت غیرقابل کنترل هوش مصنوعی
الیزر یادکوفسکی در این نشست تأکید کرد که سیستمهای فعلی هوش مصنوعی بهدلیل ماهیت «جعبه سیاه» خود، غیرقابل درک و کنترل هستند. او معتقد است که بدون تغییر بنیادین در پارادایمهای فعلی، دستیابی به ایمنی در حوزه هوش مصنوعی عمومی غیرممکن است.
واژه AGI به سیستمی اشاره دارد که برخلاف هوش مصنوعیهای فعلی، قادر به یادگیری و انجام هر نوع فعالیت ذهنی مشابه انسان است و میتواند با بهبود خودکار، به «تکینگی تکنولوژیک» برسد.
الیزر یادکوفسکی در بخشی از سخنان خود که بازتابدهنده دیدگاههای کتاب اخیرش است، گفت:
عنوان کتاب من این نیست که هوش مصنوعی «امکان دارد» شما را بکشد؛ عنوان این است: اگر کسی آن را بسازد، همه میمیرند.
هوش مصنوعی به مثابه ابزاری برای جاودانگی یا استبداد
در مقابل، مکس مور استدلال کرد که توقف توسعه این فناوری میتواند فاجعهبارتر باشد. او معتقد است AGI بزرگترین شانس بشر برای غلبه بر فرسودگی بیولوژیک است. مکس مور در این باره گفت:
مهمترین مسئله برای من این است که هوش مصنوعی عمومی میتواند به ما کمک کند تا از انقراض تکتک انسانها بر اثر پیری جلوگیری کنیم. همه ما در حال مرگ هستیم و یکی پس از دیگری به سمت یک فاجعه پیش میرویم.
اندرس سندبرگ (Anders Sandberg) نیز با اتخاذ رویکردی میانه، ضمن ابراز دلواپسی از پتانسیل هوش مصنوعی در کمک به بازیگران مخرب برای تولید سلاحهای بیولوژیک، مدعی شد که دستیابی به «ایمنی نسبی» امکان دارد.
از سوی دیگر، ناتاشا ویتا مور (Natasha Vita-More) ایده «همسویی» (Alignment) را یک طرح خوشبینانه و غیرعملی خواند و تأکید کرد که حتی میان انسانهای نزدیک نیز همسویی کامل وجود ندارد.