|
دانشمندان طی مطالعات جدید در رابطه با شباهت بیش از اندازه چتباتهای هوش مصنوعی به انسان هشدار دادهاند.
به گزارش ایسنا، پژوهشگران در یک مطالعه جامع نشان میدهند که جدیدترین نسل از چتباتهای مجهز به «مدل زبانی بزرگ»(LLM)، در توانایی برقراری ارتباط با بیشتر انسانها برابری میکنند و حتی از آنها پیشی میگیرند. بسیاری از پژوهشها نشان میدهند که این چتباتها اکنون با موفقیت انسانها را فریب میدهند تا فکر کنند با یک انسان دیگر در حال تعامل هستند.
به نقل از اساف، هیچکدام از ما انتظار ورود ابرارتباطدهندهها را نداشتیم. داستانهای علمی-تخیلی به ما آموخته بودند که هوش مصنوعی، بسیار منطقی و دانای کل خواهد بود اما این فناوری فاقد انسانیت است. با وجود این، آزمایشهای جدید نشان دادهاند که مدلهایی مانند «GPT-4» در نوشتن متقاعدکننده و همدلانه، بهتر از انسانها عمل میکنند. مطالعه دیگری نشان داد که مدلهای زبانی بزرگ در ارزیابی احساسات ظریف در پیامهای نوشتهشده توسط انسان، عملکرد عالی دارند.
مدلهای زبانی بزرگ در ایفای نقش ماهر هستند و طیف گستردهای از شخصیتها را بر عهده میگیرند و سبکهای زبانی ظریف را تقلید میکنند. این امر با توانایی آنها در استنباط باورها و نیتهای انسانی از متن تقویت میشود. مدلهای زبانی بزرگ، همدلی یا درک اجتماعی واقعی ندارند اما در تقلید آن بسیار ماهر هستند.
این سامانهها «عوامل انسانانگاری»(anthropomorphic agents) نام دارند. انسانانگاری به نسبت دادن ویژگیهای انسانی به موجودات غیر انسانی اشاره دارد. مدلهای زبانی بزرگ ویژگیهای بسیاری را شبیه به انسان نشان میدهند. بنابراین، درخواستها برای اجتناب از انسانانگاری مدلهای زبانی بزرگ بینتیجه خواهد بود.
این عوامل منجر میشوند که نتوانید تفاوت بین صحبت کردن با یک انسان و یک چتبات هوش مصنوعی آنلاین را تشخیص دهید.
تشخیص هوش مصنوعی در اینترنت
مدلهای زبانی بزرگ نوید میدهند که اطلاعات پیچیده را از طریق رابطهای چت بهطور گستردهتری در دسترس قرار دهند و پیامها را متناسب با سطح درک فردی تنظیم کنند. این امر در بسیاری از زمینهها مانند خدمات حقوقی یا بهداشت عمومی کاربرد دارد. در آموزش، از تواناییهای ایفای نقش میتوان برای ایجاد معلمهایی استفاده کرد که سؤالات شخصی میپرسند و به دانشآموزان در یادگیری کمک میکنند.
در عین حال، این سامانهها فریبندهاند. میلیونها کاربر روزانه با اپلیکیشنهای هوش مصنوعی تعامل دارند. مطالب زیادی درباره اثرات منفی اپلیکیشنهای همراه گفته شده است اما فریبندگی انساننما پیامدهای بسیار گستردهتری دارد. کاربران به اندازهای آمادهاند تا به چتباتهای هوش مصنوعی اعتماد کنند که اطلاعات بسیار شخصی خود را فاش میکنند. این امر با ویژگیهای بسیار متقاعدکننده چتباتها همراه میشود و نگرانیهای واقعی را پدید میآورد.
پژوهش جدید شرکت «آنتروپیک»(Anthropic) در رابطه با هوش مصنوعی نشان میدهد که چتبات «کلود ۳»(Claude 3) این شرکت زمانی در متقاعدکنندهترین حالت خود قرار داشت؛ به طوری که اجازه داشت اطلاعات نادرست ارائه دهد و به فریبکاری بپردازد. با توجه به این که چتباتهای هوش مصنوعی هیچ مانع اخلاقی ندارند، آماده هستند تا در فریبکاری بسیار بهتر از انسانها عمل کنند.
این امر، درها را به روی دستکاری در مقیاس بزرگ، گسترش اطلاعات نادرست یا ایجاد تاکتیکهای مؤثر فروش باز میکند. چه چیزی میتواند مؤثرتر از یک همراه مورد اعتماد باشد که بهطور اتفاقی محصولی را در جریان مکالمه توصیه میکند؟
«چتجیپیتی»(ChatGPT) در حال حاضر ارائه توصیههای محصول را در پاسخ به سؤالات کاربران آغاز کرده است. این فقط یک گام کوتاه و ماهرانه برای توصیه محصول در مکالمات است.
راه حل
اولین قدم، افزایش آگاهی درباره این تواناییهاست. مقررات باید مشخص کنند که کاربران همیشه باید بدانند با یک هوش مصنوعی تعامل دارند. همان طور که قانون هوش مصنوعی اتحادیه اروپا این امر را ملزم میکند. در هر حال، این موضوع با توجه به ویژگیهای فریبنده مدلهای زبانی بزرگ کافی نخواهد بود.
دومین قدم، درک بهتر ویژگیهای انساننماست. آزمایش مدلهای زبانی بزرگ تاکنون هوش و یادآوری دانش را بررسی کردهاند اما هیچکدام تاکنون میزان شبیه بودن به انسان را مورد بررسی قرار ندادهاند. با آزمایشی مانند این میتوان از شرکتهای هوش مصنوعی خواست تا تواناییهای انساننما را با یک سامانه رتبهبندی افشا کنند و قانونگذاران میتوانند سطوح قابل قبولی از خطر را برای زمینهها و گروههای سنی خاص تعیین کنند.
اگر دولتها یک رویکرد غیر مداخلهگرانه را در پیش بگیرند، هوش مصنوعی احتمالاً مشکلات موجود در گسترش اطلاعات نادرست یا تنهایی را تشدید خواهد کرد. «مارک زاکربرگ»(Mark Zuckerberg) سرپرست شرکت «متا»(Meta) پیشتر گفته بود که میخواهد جای خالی تماس انسانی واقعی را با دوستان هوش مصنوعی پر کند. تکیه بر شرکتهای هوش مصنوعی برای خودداری از انسانیتر کردن این سامانهها، غیرمنطقی به نظر میرسد. همه تحولات در جهت مخالف هستند.
شرکت «اوپن ایآی»(OpenAI) در تلاش است تا سامانههای خود را جذابتر و شخصیتر کند و این توانایی را به کاربران بدهد که نسخه چتجیپیتی خود را دارای یک شخصیت خاص کنند. چتجیپیتی به طور کلی پرحرفتر شده است، اغلب سؤالات پیگیرانه میپرسد تا مکالمه را ادامه دهد و حالت صوتی آن جذابیت و فریبنده بیشتری دارد.
کارهای خوبی را میتوان با عوامل انساننما انجام داد. از تواناییهای متقاعدکننده آنها میتوان برای اهداف بد و خوب استفاده کرد. با وجود این، کاربران به یک دستور کار جامع در طراحی و توسعه، استقرار و استفاده و سیاست و مقررات عوامل مکالمه نیاز دارند. وقتی هوش مصنوعی میتواند کاربران را کنترل کند، آنها نباید اجازه دهند که زندگیشان را تغییر دهد.
این مطالعه در مجله « Proceedings of the National Academy of Sciences» منتشر شده است.