محتمل ترین نتیجه هوش مصنوعی فوق العاده هوشمند: همه خواهیم مرد!

به گزارش شهر وبلاگ، یک محقق برجسته هوش مصنوعی هشدار داد که متوقف کردن توسعه سیستم های هوش مصنوعی پیشرفته در سراسر دنیا و مجازات شدید افرادی که این مهلت قانونی را نقض می نمایند تنها راه نجات بشریت از انقراض است.

محتمل ترین نتیجه هوش مصنوعی فوق العاده هوشمند: همه خواهیم مرد!

به گزارش خبرنگاران به نقل از راشاتودی؛ الیزر یودکوفسکی یکی از بنیانگذاران موسسه تحقیقاتی هوش ماشینی (MIRI) روز چهارشنبه در مقاله ای نظری برای نشریه تایم شرح داد که چرا طوماری را امضا ننموده است که از تمام آزمایشگاه های هوش مصنوعی می خواهد که فورا حداقل برای شش ماه آموزش سیستم های هوش مصنوعی قوی تر از جی پی تی -4 (یک مدل زبان بزرگ چند وجهی است که اوایل ماه جاری به وسیله Open AI منتشر شد) را متوقف نمایند.

یودکوفسکی استدلال کرد که نامه امضا شده به وسیله افرادی مانند ایلان ماسک و استیو وزنیاک مدیر اپل برای حل مسئله ای که به علت توسعه سریع و کنترل نشده هوش مصنوعی ایجاد می گردد بسیار ناچیز است.

الیزر یودکوفسکی؛ محقق برجسته هوش مصنوعی

او نوشت: محتمل ترین نتیجه ساخت یک هوش مصنوعی فوق العاده هوشمند تحت هر چیزی که از راه دور مانند شرایط کنونی باشد این است که به معنای واقعی کلمه همه روی زمین خواهند مرد.

او استدلال کرد که زنده ماندن از رویارویی با یک سیستم کامپیوتری که نه برای ما و نه به طور کلی برای زندگی حساس است به دقت و آمادگی و بینش های علمی تازه احتیاج دارد که بشر در حال حاضر فاقد آن می باشد و بعید به نظر می رسد در آینده قابل پیش بینی نیز به آن دست یابد.

یودکووسکی هشدار داد: یک هوش مصنوعی به اندازه کافی هوشمند برای مدت طولانی در رایانه محصور نخواهد شد. او شرح داد که این واقعیت که امکان ارسال رشته های DNA به آزمایشگاه ها برای فراوری پروتئین وجود دارد احتمالا به هوش مصنوعی این امکان را می دهد که اشکال حیات مصنوعی را بسازد یا مستقیما به سمت فراوری مولکولی پسا بیولوژیکی حرکت کند و به دنیا راه یابد.

به گفته این محقق یک مهلت نامعلوم و دنیای برای دوره های آموزشی اصلی تازه هوش مصنوعی باید فورا معرفی گردد. او تاکید نمود: هیچ استثنایی نمی تواند وجود داشته باشد از جمله برای دولت ها یا ارتش ها.

یودوفسکی تاکید نموده که قرارداد های بین المللی باید امضا شوند تا سقفی در خصوص اندازه قدرت محاسباتی که هر فردی ممکن است از آن در آموزش چنین سیستم هایی استفاده کند مشخص گردد.

او در مقاله اشاره نموده که تهدید هوش مصنوعی به قدری زیاد است باید در دیپلماسی بین المللی به صراحت اعلام گردد که جلوگیری از سناریو های انقراض به وسیله هوش مصنوعی اولویتی بالاتر از جلوگیری از تبادل کامل هسته ای است.

منبع: فرارو
انتشار: 14 فروردین 1402 بروزرسانی: 14 فروردین 1402 گردآورنده: shahreweblog.ir شناسه مطلب: 2097

به "محتمل ترین نتیجه هوش مصنوعی فوق العاده هوشمند: همه خواهیم مرد!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "محتمل ترین نتیجه هوش مصنوعی فوق العاده هوشمند: همه خواهیم مرد!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید