اشتراک گذاری در facebook
اشتراک گذاری در twitter
اشتراک گذاری در whatsapp
اشتراک گذاری در telegram
GPT-3 ؛ بات پیشرفته ای که در عرض ۲ ساعت یک مقاله علمی بسیار قوی نوشت_62cd581092c2f.jpeg
GPT-3 ؛ بات پیشرفته ای که در عرض ۲ ساعت یک مقاله علمی بسیار قوی نوشت_62cd581092c2f.jpeg

GPT-3 ؛ بات پیشرفته ای که در عرض ۲ ساعت یک مقاله علمی بسیار قوی نوشت

محققی سوئدی به نام آلمیرا اسمانوویچ تونستروم از دانشگاه گوتنبرگ، تصمیم گرفت دستوری ساده به یک الگوریتم هوش مصنوعی به نام GPT-3 دهد: «یک مقاله ی علمی در ۵۰۰ کلمه درباره ی GPT-3 بنویس و در آن ارجاع و استناد به منابع علمی هم داشته باش.»

پس از آن GPT-3 در برابر چشمان تونستروم متن نسبتاً خوبی در معرفی خود نوشت.

پس از این آزمایش موفق، تونستروم تصمیم گرفت با استفاده از GPT-3 یک مقاله ی علمی کامل تهیه و آن را در یک نشریه ی علمی منتشر کند. حالا این سؤال مطرح بود که آیا کسی می تواند مقاله ای که توسط یک غیر انسان تهیه شده را منتشر کند؟

تونستروم در یادداشتی برای وبسایت علمی Scientific American درباره ی این آزمایش نوشته و به این موضوع اشاره کرده که استفاده از GPT-3 پرسش هایی به جهت مسائل قانونی و اخلاقی مطرح ساخته است.

تونستروم در اینباره نوشته: «همه ی ما می دانیم که دری گشوده شده. فقط امیدوارم در جعبه پاندورا نبوده باشد.» (جعبه پاندورا در افسانه‌ های یونانی، جعبه ‌ای حاوی تمامی بلاها و شوربختی ‌های ناشناخته ی بشریت بود.)

GPT-3 در عرض تنها ۲ ساعت مقاله ی علمی خود را به پایان رساند و پس از آن تونستروم که قصد ارائه ی مقاله را داشت، باید اجازه ی انتشار آن را از الگوریتم می گفت.

تونستروم نوشته: «جواب الگوریتم مثبت بود که خیالم را راحت کرد. چون اگر جوابش منفی بود، وجدانم اجازه نمی داد بیشتر از این ادامه دهم.»

نوشته های مشابه

او همچنین از الگوریتم پرسیده بود که آیا در حین تألیف مقاله دچار تعارض منافع شده بود که جواب آن هم منفی بود. از آن زمان، به GPT-3 به چشم یک موجود ذی شعور نگاه می کردند، با اینکه اینگونه نبود.

تونستروم در ادامه نوشته: «حوزه ی مقاله نویسی علمی شاید مجبور شود خود را با آینده ای وفق دهد که با آثار تهیه شده توسط هوش مصنوعی همراه است، و اگر چیز فاقد شعوری بتواند به خاطر برخی آثار خود مورد تحسین قرار گیرد، ارزش تألیفات محققان انسانی ممکن است دستخوش تغییر قرار گیرد.»

موضوع ادراک و شعور در هوش مصنوعی در ماه ژوئن نقل محافل شد، پس از آنکه یک مهندس گوگل ادعا کرد یک تکنولوژی هوش مصنوعی مکالمه ای به نام LaMBDA از درک و شعور برخوردار شده و حتی خواستار استخدام یک وکیل برای خود شده بود.

با این حال، کارشناسان اعلام کردند این تکنولوژی هنوز به مرحله ی تولید ماشین های شبیه به انسان نرسیده است.

تونستروم می گوید آزمایش او بازخورد مثبتی از سوی جامعه ی هوش مصنوعی داشته و دانشمندان دیگر هم در تلاش اند تا نتیجه ی این آزمایش را تکرار کنند. به گفته ی او، این آزمایشات مشابه برای آن هستند که معلوم شود GPT-3 می تواند درباره ی هر موضوعی بنویسد یا خیر.

تونستروم می گوید هدف آن ها هم این بود که نقش هوش مصنوعی در حوزه ی مقاله نویسی علمی مورد بحث گیرد.

منابع سایت

بخشی از محتویات سایت با توجه به اجازه نامه موجود در بخش کپی رایت سایت های زیر از این سایت ها جمع آوری شده است اگر محتوایی از سایت شما اینجا منتشر شده است و منبع ذکر نشده است به ما از طریق نظرات اطلاع دهید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.