با پیشرفت روزافزون هوش مصنوعی نیاز به پیوند آن با اخلاق بیشتر احساس میشود. دانشمندان با طراحی یک فرمول ریاضی کوشیدهاند در هوش مصنوعی این توانایی را ایجاد کنند که در مواقع لازم، تصمیمهای اخلاقی پیچیده بگیرد.
به گزارش گروه دانش و فناوری خبرگزاری آنا، از وبگاه تِک اکسپلور (Tech Xplore)، یک تیم پژوهشی بینرشتهای در دانشگاه ایالتی کارولینای شمالی در آمریکا، الگوریتمهایی را طراحی کردهاند که دستورالعملهای اخلاقی را به شیوه مؤثرتری در برنامههای تصمیمگیری هوش مصنوعی میگنجاند.
این پروژه به طور خاص بر روی فناوریهایی متمرکز بوده است که در آن انسانها با برنامههای هوش مصنوعی در تعامل هستند؛ مانند دستیاران مجازی یا رباتهای مراقب (carebots) که از آنها در مراقبتهای بهداشتی استفاده میشود.
قرار است فناوریهایی مانند رباتهای مراقب در زمینه امنیت و آسایش بیماران در بیمارستانها بهکار گرفته شوند همچنین از افراد مسن مراقبت کنند و در خدمت افرادی باشند که نیاز دارند بر سلامتشان نظارت شود یا کمک فیزیکی دریافت کنند؛ بنابراین این فناوریها در موقعیتهایی بهکار گرفته میشوند که نیاز به تصمیمگیری اخلاقی دارند؛ مثلاً تصور کنید که یک ربات مراقب در محلی است که دو نفر به کمک پزشکی نیاز دارند یا یک بیمار بیهوش است و نیاز به مراقبت فوری دارد.
ضرورت مراقبت از بیمار دوم کمتر است؛ اما آن بیمار میخواهد که ربات مراقب، اول او را درمان کند. ربات مراقب چگونه تصمیم میگیرد که ابتدا به کدام بیمار کمک کند؟ آیا ربات مراقب باید از بیماری مراقبت کند که بیهوش است و نمیتواند خرسندیاش را از دریافت مراقبت پزشکی ابراز کند؟
به گفته پژوهشگران این تیم، تلاشهای قبلی برای گنجاندن تصمیمگیری اخلاقی در برنامههای هوش مصنوعی محدود و بر استدلال سودمندگرایی متمرکز بوده است که پیچیدگی تصمیمگیری اخلاقی انسان را نادیده میگیرد.
تصمیمگیری سودمندگرایانه بر نتایج و پیامدها تمرکز دارد؛ اما انسانها در تصمیمگیری اخلاقی دو عامل دیگر را نیز در نظر میگیرند: اولین عامل، قصد انجام یک عمل معین و شخصیت عاملی است که عمل را انجام میدهد؛ به عبارت دیگر، چه کسی یک عمل معین را انجام میدهد و در تلاش است که چه کاری را به سرانجام برساند؟ این کار خیرخواهانه است یا بدخواهانه؟ عامل دوم خودِ عمل است؛ مثلاً مردم تمایل دارند اعمال خاصی مانند دروغگویی را ذاتاً بد ببینند.
همه این عوامل با یکدیگر در تعامل هستند؛ مثلاً شاید موافق باشیم که دروغگفتن بد است، اما تصور کنید پرستار به بیماری که درخواست بیجا دارد دروغ بگوید تا بتواند از بیمار دیگری که مراقبت از او اولویت بیشتری دارد رسیدگی کند؛ در این صورت اکثر مردم این کار را از نظر اخلاقی پذیرفتنی میدانند.
برای پرداختن به پیچیدگی تصمیمگیری اخلاقی، پژوهشگران یک فرمول ریاضی و مجموعهای از درختان تصمیمگیری مرتبط را طراحی کردند تا در برنامههای هوش مصنوعی گنجانده شوند. این ابزارها از مدل عامل، عمل و نتیجه استفاده میکنند تا نشان دهند مردم چگونه در دنیای واقعی تصمیمهای اخلاقی پیچیده میگیرند.
پژوهشگران میگویند: هدف ما در اینجا این بود که مدل عامل، عمل و نتیجه را به قالبی ترجمه کنیم که امکان گنجاندن آن در برنامهنویسی هوش مصنوعی فراهم شود. این چارچوب اخلاقی فقط مناسب هوش مصنوعی نیست، بلکه آن را به زبانی ارائه میکنیم که در زمینه علوم رایانه در دسترس است.
با ظهور فناوریهای هوش مصنوعی و رباتیک، جامعه به چنین تلاشهای مشترکی بین اخلاقدانان و مهندسان نیاز دارد.
به گزارش گروه دانش و فناوری خبرگزاری آنا، از وبگاه تِک اکسپلور (Tech Xplore)، یک تیم پژوهشی بینرشتهای در دانشگاه ایالتی کارولینای شمالی در آمریکا، الگوریتمهایی را طراحی کردهاند که دستورالعملهای اخلاقی را به شیوه مؤثرتری در برنامههای تصمیمگیری هوش مصنوعی میگنجاند.
این پروژه به طور خاص بر روی فناوریهایی متمرکز بوده است که در آن انسانها با برنامههای هوش مصنوعی در تعامل هستند؛ مانند دستیاران مجازی یا رباتهای مراقب (carebots) که از آنها در مراقبتهای بهداشتی استفاده میشود.
قرار است فناوریهایی مانند رباتهای مراقب در زمینه امنیت و آسایش بیماران در بیمارستانها بهکار گرفته شوند همچنین از افراد مسن مراقبت کنند و در خدمت افرادی باشند که نیاز دارند بر سلامتشان نظارت شود یا کمک فیزیکی دریافت کنند؛ بنابراین این فناوریها در موقعیتهایی بهکار گرفته میشوند که نیاز به تصمیمگیری اخلاقی دارند؛ مثلاً تصور کنید که یک ربات مراقب در محلی است که دو نفر به کمک پزشکی نیاز دارند یا یک بیمار بیهوش است و نیاز به مراقبت فوری دارد.
ضرورت مراقبت از بیمار دوم کمتر است؛ اما آن بیمار میخواهد که ربات مراقب، اول او را درمان کند. ربات مراقب چگونه تصمیم میگیرد که ابتدا به کدام بیمار کمک کند؟ آیا ربات مراقب باید از بیماری مراقبت کند که بیهوش است و نمیتواند خرسندیاش را از دریافت مراقبت پزشکی ابراز کند؟
به گفته پژوهشگران این تیم، تلاشهای قبلی برای گنجاندن تصمیمگیری اخلاقی در برنامههای هوش مصنوعی محدود و بر استدلال سودمندگرایی متمرکز بوده است که پیچیدگی تصمیمگیری اخلاقی انسان را نادیده میگیرد.
تصمیمگیری سودمندگرایانه بر نتایج و پیامدها تمرکز دارد؛ اما انسانها در تصمیمگیری اخلاقی دو عامل دیگر را نیز در نظر میگیرند: اولین عامل، قصد انجام یک عمل معین و شخصیت عاملی است که عمل را انجام میدهد؛ به عبارت دیگر، چه کسی یک عمل معین را انجام میدهد و در تلاش است که چه کاری را به سرانجام برساند؟ این کار خیرخواهانه است یا بدخواهانه؟ عامل دوم خودِ عمل است؛ مثلاً مردم تمایل دارند اعمال خاصی مانند دروغگویی را ذاتاً بد ببینند.
همه این عوامل با یکدیگر در تعامل هستند؛ مثلاً شاید موافق باشیم که دروغگفتن بد است، اما تصور کنید پرستار به بیماری که درخواست بیجا دارد دروغ بگوید تا بتواند از بیمار دیگری که مراقبت از او اولویت بیشتری دارد رسیدگی کند؛ در این صورت اکثر مردم این کار را از نظر اخلاقی پذیرفتنی میدانند.
برای پرداختن به پیچیدگی تصمیمگیری اخلاقی، پژوهشگران یک فرمول ریاضی و مجموعهای از درختان تصمیمگیری مرتبط را طراحی کردند تا در برنامههای هوش مصنوعی گنجانده شوند. این ابزارها از مدل عامل، عمل و نتیجه استفاده میکنند تا نشان دهند مردم چگونه در دنیای واقعی تصمیمهای اخلاقی پیچیده میگیرند.
پژوهشگران میگویند: هدف ما در اینجا این بود که مدل عامل، عمل و نتیجه را به قالبی ترجمه کنیم که امکان گنجاندن آن در برنامهنویسی هوش مصنوعی فراهم شود. این چارچوب اخلاقی فقط مناسب هوش مصنوعی نیست، بلکه آن را به زبانی ارائه میکنیم که در زمینه علوم رایانه در دسترس است.
با ظهور فناوریهای هوش مصنوعی و رباتیک، جامعه به چنین تلاشهای مشترکی بین اخلاقدانان و مهندسان نیاز دارد.
کد خبر ۲۲۸۰۱۰۷۲۰.۲۳۶