| |
جنبههای اخلاقی استفاده از هوش مصنوعی در فرایندهای علمی در یک مطالعه جدید مورد بررسی محققان قرار گرفته است تا نشان داده شود که این فناوری چگونه میتواند پژوهش را آسان کند و همزمان چالشهایی مهم ایجاد کند.
به گزارش ایسنا، در سالهای اخیر هوش مصنوعی وارد بسیاری از بخشهای زندگی شده و در حوزه پژوهش نیز حضوری پررنگ پیدا کرده است. ابزارهایی مانند Grammarly و ChatGPT و حتی سرویسهایی که برای تحلیل و سامان دهی دادهها ساخته شدهاند، سرعت و دقت تحقیقات را بالا میبرند و به پژوهشگران کمک میکنند به دادههای گسترده دسترسی داشته باشند. همین توانایی باعث شده نقش هوش مصنوعی در شکل گیری پروژههای علمی پررنگ تر شود. با این حال، همین پیشرفتها پرسشهایی تازه را مطرح میکنند. برای نمونه، وقتی یک متن علمی تا حد زیادی با کمک هوش مصنوعی تولید میشود، چگونه میتوان سهم پژوهشگر و ابزار را از هم جدا کرد و اصالت متن را سنجید. این موضوع در کنار مسائلی مانند حریم خصوصی، شفافیت و مسئولیت پذیری، ضرورت پرداختن به اخلاق پژوهش را بیشتر نشان میدهد.
پیشرفت نسلهای جدید هوش مصنوعی باعث شده موضوعات اخلاقی پیچیده تر شوند. هوش مصنوعی میتواند متنی تولید کند که تشخیص آن از متن انسانی دشوار باشد. همچنین ممکن است از دادههای حساس، بدون رضایت درست استفاده شود یا محتوایی ایجاد شود که استنادهای جعلی یا استدلالهای نادرست دارد. این نگرانیها نشان میدهند که مدیریت اخلاقی استفاده از این ابزارها تنها به یک توصیه ساده محدود نیست و نیاز به چارچوبهای دقیق و قابل اجرا دارد. برای کاهش این مشکلات باید ابزارهایی برای تشخیص اصالت متون ایجاد شود و پژوهشگران با اصول اخلاق حرفه ای بیشتر آشنا شوند. این تلاشها کمک میکند پژوهش از مسیر درست خارج نشود و همچنان قابل اعتماد باقی بماند.
در این میان، سید محمدعلی مرتضوی شاهرودی، کارشناس ارشد علوم ارتباطات اجتماعی در دانشگاه صدا و سیما، به همراه یکی از همکاران هم دانشگاهی خود مطالعه ای مشترک انجام دادهاند. این دو پژوهشگر به سراغ بررسی اصول اخلاقی هوش مصنوعی در پژوهشهای علمی رفتهاند و تلاش کردهاند نشان دهند که حضور این فناوری چگونه میتواند هم فرصت ساز باشد و هم چالش زا.
پژوهشگران ابتدا اسناد و مطالعات موجود را با رویکردی کیفی بررسی کردند. سپس به مطالعه موردی سیستمهای هوش مصنوعی در پژوهش پرداخته تا رفتار این ابزارها در شرایط واقعی سنجیده شود. در کنار این دو بخش، رویکرد استقرایی نیز به کار رفته تا از دل دادهها الگوهای اخلاقی قابل اعتماد استخراج شود. هدف نهایی این روش، رسیدن به تصویری جامع از رابطه میان هوش مصنوعی و اخلاق پژوهش و ارائه راهکارهایی برای کاهش آسیبها بوده است.
یافتههای این تحقیق که در «مجله اخلاق پژوهی» منتشر شدهاند، نشان میدهند که هرچند هوش مصنوعی به سرعت و دقت پژوهش کمک میکند، اما چالشهایی جدی نیز دارد. یکی از مهمترین مشکلات، افزایش احتمال عدم صداقت در متن علمی است. هوش مصنوعی میتواند استنادی بسازد که وجود خارجی ندارد یا بخشی از متن را از منابع ناشناس بگیرد. از سوی دیگر، احتمال نقض حریم خصوصی افراد و استفاده از دادههای حساس بدون کنترل کافی نیز وجود دارد.
بر این اساس، برای استفاده ایمن از هوش مصنوعی، باید ابزارهایی برای تشخیص اصالت متون توسعه پیدا کند و پژوهشگران نیز آگاهی بیشتری درباره خطرات احتمالی داشته باشند. شفافیت در بیان این که چه اندازه از متن یا تحلیل با کمک هوش مصنوعی تولید شده نیز یکی از نکات ضروری است تا مخاطب بتواند محتوای پژوهش را درست ارزیابی کند.
در بخش دیگری از پژوهش گفته شده که هوش مصنوعی با وجود سودهای فراوان، اگر بدون نظارت استفاده شود میتواند دادههای ساختگی، تحلیل نادرست و محتوای غیرقابل اعتماد تولید کند. این موارد به باور عمومی نسبت به پژوهش آسیب می زند. از این رو نیاز به مقررات ملی و بین المللی بیش از گذشته احساس میشود.
هر جامعه باید با تکیه بر ارزشهای اخلاقی و فرهنگی خود، چارچوبی شفاف برای استفاده از هوش مصنوعی طراحی کند. آموزش پژوهشگران، توسعه ابزارهای شناسایی متون جعلی و اعلام شفاف منابع، از اصلیترین راهکارهایی هستند که میتوانند به حفظ اعتماد در پژوهش کمک کنند.