|
شرکت «اوپنآیآی» به حمایت مالی از پژوهشهای دانشگاهی درباره الگوریتمهای هوش مصنوعی میپردازد که میتوانند قضاوتهای اخلاقی انسانها را پیشبینی کنند.
به گزارش ایسنا، شرکت «اوپنآیآی»(OpenAI) فاش کرد که برای یک پروژه با عنوان «پژوهش اخلاق هوش مصنوعی»(Research AI Morality) به پژوهشگران «دانشگاه دوک»(Duke University) کمک مالی اعطا کرده است.
به نقل از تک کرانچ، سخنگوی اوپنآیآی به یک بیانیه مطبوعاتی اشاره کرد که نشان میدهد اعطای این بودجه، بخشی از یک کمک مالی بزرگتر به مدت سه سال و مبلغ یک میلیون دلار به اساتید دانشگاه دوک برای ساخت هوش مصنوعی اخلاقی است.
اطلاعات کمی درباره این تحقیقات تحت سرمایهگذاری اوپنآیآی وجود دارد. فقط مشخص است که کمک مالی این شرکت در سال ۲۰۲۵ به پایان خواهد رسید. «والتر سینوت آرمسترانگ»(Walter Sinnott-Armstrong) استاد اخلاق عملی دانشگاه دوک و پژوهشگر ارشد این پروژه، از طریق ایمیل به تک کرانچ گفت که نمیتواند درباره این پروژه صحبت کند.
آرمسترانگ و «جانا بورگ»(Jana Borg) از پژوهشگران این پروژه، چندین مقاله و یک کتاب را درباره پتانسیل هوش مصنوعی برای خدمت به عنوان یک GPS اخلاقی به منظور کمک کردن به انسان در قضاوت بهتر تهیه کردهاند. آنها به عنوان بخشی از گروههای بزرگتر، یک الگوریتم اخلاقی همسو را ایجاد کردهاند و به بررسی این موضوع پرداختهاند که افراد در چه شرایطی ترجیح میدهند هوش مصنوعی تصمیمات اخلاقی بگیرد.
براساس بیانیه مطبوعاتی، هدف از پژوهش با بودجه اوپنایآی، آموزش الگوریتمها برای پیشبینی قضاوتهای اخلاقی انسان در شرایطی است که تضاد را بین ویژگیهای اخلاقی مرتبط در پزشکی، حقوق و تجارت شامل میشود اما مشخص نیست که مفهوم ارائهشده، ظرافت اخلاقیات انسان را داشته باشد.
الگوریتمی که برای پیشبینی قضاوتهای اخلاقی انسانها طراحی میشود، باید همه این موضوعات را در نظر بگیرد.