|
پژوهشگران با راهنمایی ChatGPT یک مقاله روان و قابل قبول تولید کردند، با این حال آنها هنوز نگران هستند.
به گزارش ایسنا و به نقل از نیچر،ChatGPT ابزاری است که توسط هوش مصنوعی (AI) هدایت میشود و میتواند مانند انسان متنی را درک و تولید کند. دو دانشمند، در کمتر از یک ساعت با کمک ChatGPT یک مقاله پژوهشی تولید کردند.این مقاله روان و روشنگر بود و در ساختار مورد انتظار برای یک مقاله علمی ارائه شد؛ اما پژوهشگران میگویند قبل از اینکه این ابزار بتواند واقعاً مفید باشد، باید از موانع زیادی عبور کرد.
«روی کیشونی» (Roy Kishony)؛ زیستشناس و دانشمند داده در انستیتو فناوری تکنیون در حیفا میگوید: هدف از این کار بررسی قابلیتهای ChatGPT به عنوان یک «کمک خلبان» پژوهشی و آغاز بحث در مورد مزایا و مشکلات آن بود. او میگوید: ما در مورد اینکه چگونه میتوانیم با معایب کمتری از مزایای ChatGPT بهره ببریم، نیاز به گفتگو داریم.
کیشونی و شاگرد او «تال ایفارگان» (Tal Ifargan)؛ دانشمند داده که او نیز در تکنیون مستقر است، یک مجموعه داده در دسترس عموم را از مرکز کنترل بیماریهای آمریکا و سیستم نظارت بر پیشگیری از عوامل خطر رفتاری و پایگاه داده نظرسنجیهای تلفنی مرتبط با سلامت، دانلود کردند. این مجموعه دادهها شامل اطلاعات جمعآوری شده از بیش از ۲۵۰ هزار نفر در مورد وضعیت دیابت، مصرف میوه و سبزیجات و فعالیت بدنی آنها بود.
توهمChatGPT
این پژوهشگران از ChatGPT خواستند کدی بنویسد تا آنها بتوانند از آن برای کشف الگوهایی در دادههایی، استفاده و آنها را بیشتر آنالیز کنند. در اولین تلاش، چتبات کدی تولید کرد که مملو از خطا بود و کار نکرد. اما وقتی که دانشمندان پیامهای خطا را ارسال کردند و از ChatGPT خواستند که اشتباهاتش را تصحیح کند، در نهایت کدی تولید کرد که از آن میتوانستند برای کاوش مجموعه داده استفاده کنند.
کیشونی و ایفارگان با در اختیار داشتن مجموعه دادههای ساختارمندتر، از ChatGPT خواستند تا به آنها برای توسعه یک هدف مطالعاتی کمک کند. یکی از مشکلاتی که این پژوهشگران با آن مواجه بودند، تمایل ChatGPT به پر کردن شکافها از طریق چیزهای ساختگی بود؛ پدیدهای که با نام «توهم» یا «خطای حسی» شناخته میشود. در این مورد؛ ChatGPT استنادات جعلی و اطلاعات نادرست تولید کرد. به عنوان مثال؛ در این مقاله آمده است که این مطالعه «به یک شکاف در ادبیات میپردازد». این عبارت در مقالات رایج است، اما استفاده از آن در این مورد نادرست است. این را «تام هوپ» دانشمند کامپیوتر در دانشگاه عبری اورشلیم میگوید. او میگوید: این یافتهها «چیزی نیست که هیچ متخصص پزشکی را شگفتزده کند و حتی جدید و بدیع نیست».
سادهتر شدن اعمال غیر صادقانه برای پژوهشگران
کیشونی همچنین نگران است که چنین ابزارهایی میتوانند پژوهشگران را سادهتر درگیر اعمال غیرصادقانهای مثل P-hacking کنند، برای دانشمندانی که چندین فرضیه را بر روی یک مجموعه داده آزمایش میکنند، اما فقط مواردی را گزارش میکنند که نتیجه قابل قبول داشتهاند. (P-hacking بهرهبرداری از آنالیز دادهها برای کشف الگوهایی است که از نظر آماری معنیدار هستند، ولی در واقعیت هیچ تاثیر اساسی ندارند).
غرق شدن مجلات با مقالات بیکیفیت
او اضافه میکند: نگرانی دیگر این است که سهولت تولید مقالات با ابزارهای مولد هوش مصنوعی میتواند منجر به غرق شدن مجلات با مقالات بیکیفیت شود. کیشونی میگوید که رویکرد «داده به مقاله» (data-to-paper approach) او، با نظارت انسانی در هر مرحله، میتواند راهی برای اطمینان از این باشد که پژوهشگران میتوانند روشها و یافتهها را درک کنند، آنها را بررسی و یا تکرار کنند.
«ویتومیر کووانوویچ» (Vitomir Kovanović) که فناوریهای هوش مصنوعی را برای آموزش در دانشگاه استرالیای جنوبی در آدلاید توسعه میدهد، میگوید که نیاز است ابزارهای هوش مصنوعی در مقالههای پژوهشی بیشتر قابل رؤیت باشند. او میگوید در غیر این صورت، ارزیابی صحیح بودن یافتههای یک مطالعه دشوار خواهد بود. اگر تولید مقالههای جعلی بسیار آسان باشد، احتمالاً در آینده باید کارهای بیشتری انجام دهیم.
«شانتانو سینگ» (Shantanu Singh )؛ زیستشناس محاسباتی در انستیتو Broad دانشگاه MIT و هاروارد در کمبریج ماساچوست میگوید: ابزارهای مولد هوش مصنوعی این پتانسیل را دارند که انجام کارهای ساده، اما وقتگیر در فرآیند پژوهش مانند نوشتن خلاصه و تولید کد را تسریع کنند. ممکن است آنها برای تولید مقالات از مجموعه دادهها و یا برای توسعه فرضیهها استفاده شوند. اما به دلیل اینکه تشخیص توهمها و سوگیریها برای پژوهشگران دشوار است، «سینگ» میگوید: فکر نمیکنم نوشتن مقالههای کامل، حداقل در آینده قابل پیشبینی، استفاده خوبی باشد.