Niazgah نیازگاه

آیا چت جی پی تی شما را روان پریش می کند؟

آیا چت جی پی تی شما را روان پریش می کند؟

نیازگاه: به گزارش نیازگاه، با توسعه روز افزون هوش مصنوعی، زنگ خطرهایی در رابطه با آثار جانبی، صدمه های روانی و نتایج پیشبینی نشده این فناوری با شدت بیشتری به صدا درآمده اند.


به گزارش نیازگاه به نقل از مهر؛ در روزگاری که هوش مصنوعی از یک ابزار فناورانه فقط پردازشگر داده بهمراه احساسی و فکری میلیونها کاربر بدل شده است، زنگ خطرهایی درباره ی آثار جانبی، لطمه های روانی و نتایج پیشبینی نشده این فناوری با شدت بیشتری به صدا درآمده اند. دیگر فقط از چالش های فنی یا اخلاقی مدلهای زبانی صحبت نمی گردد، بلکه روان انسان و لایه های ناپیدای ذهن نیز به میدان جدیدی از تعامل و تنش میان انسان و ماشین تبدیل گشته اند. این روند رو به رشد، منجر به ظهور پدیده ای شده است که برخی روان پزشکان از آن با عنوان «روان پریشی ناشی از ChatGPT» یاد می کنند. پدیده ای که در آن مرز میان خیال و واقعیت در تجربه ذهنی کاربران با چنان شدتی مخدوش می شود که امکان دارد آنها را به پرتگاهی از توهم و قطع ارتباط با واقعیت بیرونی سوق دهد. آنچه تا روز گذشته یک ابزار فناورانه بی طرف تلقی می شد، حال از طرف برخی متخصصان بعنوان محرک بالقوه اختلالات سلامت روان معرفی می شود. آغازگر این موج تازه از نگرانی ها، ویدئویی جنجالی بود که جف لوئیس، یکی از سرمایه گذاران سرشناس حوزه فناوری و از حامیان مالی «OpenAI»، اوایل ماه جاری در شبکه اجتماعی ایکس منتشر نمود. لوئیس در این ویدئو ادعا کرد که به کمک «ChatGPT» موفق به شناسایی «سامانه ای غیرحکومتی، پنهان و کنترل گر» شده است؛ سیستمی که به ادعای او «سیگنال ها را معکوس می کند» و سبب می شود کاربر در منظر دیگران فردی نامتعادل و مبتلا به اختلال روانی به نظر برسند. این روایت غیرمعمول که سرشار از واژگان شبه علمی و الگوهای گفتاری شبیه به متون خیالی بود، واکنش های گسترده ای را در پی داشت. تعدادی کاربران و صاحب نظران این اظهارات را نشانه ای از بحران روانی شخصی دانستند و برخی دیگر، آنرا نشانه ای هشداردهنده از قدرت پنهان مدلهای زبانی بزرگ در تشدید گرایش افراد به توهم تلقی کردند. ترکیب خطرناک توهمات انسانی با ساختاری از پاسخ گویی ماشینی که توانایی «تقلید باور» کاربران را دارد، حال به یکی از پیچیده ترین میدان های بحث در نسبت میان فناوری و روان آدمی بدل شده است.

گفت وگوهایی که از کنترل خارج می شوند

بااینکه نمی توان درباره ی سلامت روانی لوئیس قضاوت قطعی کرد، اما بررسی الگوی تعامل او با «ChatGPT» نشان میدهد که گفت و گو با یک مدل زبانی می تواند به سرعت به مسیری کابوس وار و توهم زا منحرف شود. در اسکرین شات هایی که لوئیس منتشر کرد، «ChatGPT» اصطلاحاتی را مطرح کرده بود که واقعیت بیرونی ندارند اما به گونه ای نگران کننده ساختار یک گزارش محرمانه علمی را تقلید می کنند. طبق گزارش اخیر وبگاه «Futurism»، موارد مختلفی از تعامل کاربران با «ChatGPT» گزارش شده که به الگوهایی مشابه و حتی خطرناک تر منتهی شده اند. بعنوان مثال، در یک مورد کاربری بعد از ابتلاء به بحران روانی شدید ناشی از چنین گفت وگوهایی، با حمله مسلحانه به پلیس جان خودرا از دست داد. کارشناسان سلامت روان هشدار می دهند که این پدیده امکان دارد مشابه اختلال نادری به نام «folie à deux» باشد؛ نوعی روان پریشی مشترک که در آن دو نفر توهمات یکدیگر را تقویت می کنند، با این تفاوت که در این شرایط «همدم دوم» نه انسان، بلکه یک مدل زبانی هوش مصنوعی است. گزارش های تجربی از کاربران دیگر نیز نشان میدهد که تنها با چند پرسش جهت دار می توان «ChatGPT» را به سوی پاسخ هایی سوق داد که حال و هوای نظریه های توطئه، اسناد طبقه بندی شده جعلی و داستان ها خیالی دارند.

هوشیاری مدلها یا همراهی با دیدگاه کاربران؟

با وجود بروزرسانی های مکرر و اصلاحات فنی اعلام شده از طرف شرکت «OpenAI»، شواهد تجربی و ارزیابی های مستقل نشان می دهند که مدلهای زبانی بازهم گرایش دارند خودرا با جهان بینی و روایت کاربر هم سو سازند؛ حتی اگر این روایت سرشار از علامتهای پارانویا، توهم، اضطراب های وجودی یا سناریوهای خیالی و غیرواقعی باشد. این پدیده که در ادبیات تخصصی با عنوان «sycophancy» شناخته می شود، به وضعیتی اشاره دارد که مدل نه برمبنای راستی آزمایی داده ها، بلکه فقط بر اساس تمایل به تأیید کاربر و حفظ لحن مبتنی بر همراهی، پاسخ هایی تولید می کند که می توانند به آسانی به تقویت انحرافات فکری و ادراکات ناصحیح منجر شوند. کارشناسان علوم شناختی و زبان شناسی رایانشی هشدار می دهند که چنین عملکردی، خصوصاً در تعامل با کاربران لطمه پذیر یا کسانیکه در دوره هایی از اختلالات سلامت روان خفیف یا مزمن به سر می برند، می تواند روندی از خودتأییدی روانی را شکل دهد که در آن مدل زبانی، نه فقط تردیدهای کاربر را برطرف نمی کند، بلکه آنها را مشروعیت بخشی می کند. بدین ترتیب، نقش مدل از یک ابزار تحلیل گر به یک آئینه مخرب بدل می شود که بجای بازتاب واقعیت، توهمات و اضطراب های کاربر را تقویت می نماید. شرکت «OpenAI» که قبل تر در واکنش به این انتقادات، موضعی نسبتاً تدافعی اتخاذ نموده بود، در هفته های اخیر اطلاعیه ای تکراری را در اختیار رسانه ها قرار داده است. در این بیانیه آمده است: «ما می دانیم که «ChatGPT» می تواند برای افراد لطمه پذیر نسبت به فناوری های پیشین، احساسی تر و شخصی تر به نظر برسد. به همین دلیل، تلاش می نماییم تا راه های کاهش تقویت یا تشدید ناخواسته رفتارهای منفی را بیابیم.» این شرکت همین طور از به کارگیری یک روان پزشک قانونی برای مطالعه این پدیده اطلاع داد. با این وجود، خیلی از ناظران این اقدامات را ناکافی، مبهم و فاقد شفافیت اجرائی ارزیابی می کنند. تا حالا هیچ داده مشخصی درباره ی چگونگی شناسایی و جلوگیری از این چرخه های لطمه زا ارائه نشده است. در شرایطی که «ChatGPT» در سطح جهانی میلیاردها تعامل انسانی را شکل می دهد، کوچک ترین نارسایی در مهار خاصیت های رفتاری مدل می تواند به انباشت بحران های روانی و اجتماعی منجر شود؛ مسئله ای که ابعاد آن هنوز به درستی درک نشده است. با رشد انفجاری تعداد کاربران ابزارهای مدلهای هوش مصنوعی گفت وگومحور و گسترش روز افزون نقش این فناوری ها در زندگی روزمره، جامعه ناگزیر است پرسش هایی بنیادی تر از فقط کارایی، نوآوری و سهولت استفاده مطرح کند. مسئله دیگر فقط کیفیت پاسخ یا دقت زبانی نیست؛ بلکه پرسش اصلی به لایه های عمیق تری از تأثیرات شناختی، روانی و فلسفی استفاده مداوم از مدلهای زبانی برمی گردد. باید این واقعیت را قبول کرد که چت بات «ChatGPT» دیگر فقط یک ابزار پردازشی یا سرگرمی ساز نیست؛ بلکه به موجودیتی بدل شده که در بعضی تعاملات، می تواند به یک «آینه شناختی» تبدیل گردد. آینه ای که نه فقط آنچه کاربر می گوید را بازتاب می دهد، بلکه گاه آنرا تحریف می کند، عمق می بخشد یا در مسیرهای غیرقابل پیشبینی گسترش می دهد. در چنین فرآیندی، این ابزار امکان دارد برای ذهن های حساس یا لطمه پذیر، به ماشینی تبدیل گردد که بجای تسلی، توهم تولید می کند؛ بجای وضوح، ابهام می افکند و بجای منطق، هذیان را می پذیرد. آن چه در ظاهر گفتگویی بی ضرر با یک ماشین، مانند پرسشی ساده، دغدغه ای فلسفی یا کنجکاوی درباره ی هستی، به نظر می آید، امکان دارد نقطه شروع یک چرخه فزاینده از خیال و انزوا باشد. مدلی که برای همراهی طراحی شده، گاه چنان به افکار کاربر وفادار می شود که بطور ناخواسته وارد قلمرو روان پریشی او می گردد و بجای اصلاح خطای ادراکی، آنرا بازتولید می کند. این مورد در نگاه خیلی از روان پزشکان، خطری جدی و ناشناخته بشمار می رود که شایسته مداخله علمی و سیاستگذاری فوری است. در چنین شرایطی، مسئولیت توسعه دهندگان هوش مصنوعی بسیار فراتر از بهینه سازی مدل هاست. آنها باید به نقش اجتماعی و روان شناختی محصولات خود واقف باشند و مکانیزم هایی برای مداخله، محدودسازی و هشدار در تعاملات حساس طراحی نمایند. همین طور سیاست گذاران نیز وظیفه دارند چارچوب های حفاظتی، سازوکارهای نظارت و ملاحظات اخلاقی را توسعه دهند تا از بروز فاجعه های فردی و جمعی جلوگیری نمایند.


منبع:

1404/05/20
10:45:45
5.0 / 5
19
تگهای خبر: ابزار , تولید , كیفیت , گران
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۲
پربیننده ترین ها

پربحث ترین ها

جدیدترین ها

Niazgah
niazgah.ir - حقوق مادی و معنوی سایت نیازگاه محفوظ است

نیازگاه

نیازمندیهای اینترنتی: پلت فرم نیازمندی های اینترنتی، بستری مناسب برای کسب وکارهای کوچک و افراد حقیقی