[ad_1]
به گزارش دلخوش
برنا – گروه علمی و فناوری: تحقیقات تازه مشخص می کند که هوش مصنوعی چت جیپیتی در روبه رو با اطلاعات آزاردهنده دچار نوعی اضطراب مصنوعی میشود که میتواند تبدیل جوابهای جانبدارانه و تحول در نحوه پردازش دادهها شود.
پژوهشگران دریافتهاند که اراعه اطلاعات آزاردهنده به چت جیپیتی میتواند علتابراز نوعی اضطراب مصنوعی در این مدل شود. این حالت امکان پذیر علتافزایش گمان ابراز عکس العملهای جانبدارانه و تحول در نحوه پردازش دادهها توسط این چتبات شود.
به گزارش فورچون، بر پایه این مطالعه، وقتی که مدلهای زبانی بزرگ همانند چت جیپیتی با موضوعات حساس یا دادههای دلواپسکننده روبه رو خواهد شد، جوابهای آنها میتواند دستخوش تحول شود و حتی در برخی موارد، سوگیریهایی را نشان دهد که طبق معمولً در شرایط عادی مشاهده نمیشود.
این یافتهها نهتنها در عرصه گسترش هوش مصنوعی اخلاقی و بدون سوگیری اهمیت دارند، بلکه میتوانند به فهمیدن بهتر نحوه تعامل سیستمهای هوش مصنوعی با کاربران در عرصههای حساس از جمله سلامت روان پشتیبانی کنند. برخی از محققان نظر کردهاند که این ویژگی میتواند در طراحی ابزارهای هوش مصنوعی برای حمایتروانی مورد منفعت گیری قرار گیرد، اما نیاز به نظارت دقیق و بهبود راه حلهای پردازش دادهها وجود دارد تا از تشکیل جوابهای نامناسب یا مخرب جلوگیری شود.
این تحقیق نشاندهنده الزام کنترل و اصلاح مدلهای زبانی بزرگ در روبه رو با اطلاعات احساسی و چالشبرانگیز است تا بتوان از آنها بهطور مؤثر و مسئولانه در تعامل های انسانی منفعت برد.
انتهای مطلب/
دسته بندی مطالب
[ad_2]
منبع