[ad_1]

در ماه می ۲۰۲۱، توییتر ویژگی جدیدی را ارائه داد که به کاربران پیشنهاد می‌کند قبل از ارسال توییت دوباره فکر کنند. ماه بعد، فیسبوک «هشدارهای درگیری» هوش مصنوعی را برای گروه‌ها اعلام کرد تا مدیران بتوانند در جایی که ممکن است گفتگوهای جنجالی یا ناسالم اتفاق افتد، وارد عمل شوند. پاسخ‌های هوشمند ایمیل و پیام‌رسانی هر روز میلیاردها جمله را برای ما به پایان می‌رسانند.

مچ‌بند Halo که آمازون آن را در سال ۲۰۲۰ عرضه کرد، مچ‌‌بند تناسب اندامی است که لحن صدای شما را تحت نظارت قرار می‌دهد. بهزیستی دیگر فقط ردیابی ضربان قلب یا شمارش قدم‌ها نیست، بلکه نحوه برخورد ما با اطرافیانمان را نیز شامل می‌شود. ابزارهای درمانی الگوریتمی برای پیش‌بینی و پیشگیری از رفتارهای منفی درحال توسعه هستند.

طبق تعریف جف هنکاک، استاد ارتباطات در دانشگاه استنفورد، ارتباطات مبتنی بر هوش مصنوعی، ارتباطی هستند که در آن عاملی هوشمند از طرف فرد ارتباط‌گر پیام‌ها را تولید، اصلاح یا اضافه می‌کند تا اهداف ارتباطی را برآورده سازد. به‌گفته‌ی او، این فناوری هم‌اکنون در مقیاس وسیعی به کار می‌رود.

از آغاز دنیاگیری، بیشتر روابط ما به مسیرهای کامیپوتری وابسته شده است. اما آیا الگوریتم‌ها می‌توانند به ما کمک کنند تا در میان اقیانوس خروشانی از مشاجره‌های آنلاین و پیام‌های سمی با همدیگر بهتر رفتار کنیم؟ آیا اپلیکیشن بهتر از ما می‌تواند احساسات ما را بخواند؟ آیا واگذار کردن روابط‌مان به هوش مصنوعی، به‌تدریج آن‌چه را که رابطه انسانی را انسانی می‌کند، از بین می‌برد؟

کدنویسی برای والدینی که حضانت مشترک دارند

جی کیسون در سیستم دادگاه خانواده یا حداقل در اطراف آن بزرگ شد. مادرش، کاتلین کیسون، وکیل خانواده بود و زمانی که جی نوجوان بود، در دفتر او در مینیاپولیس مینه‌سوتا در رفت‌و‌آمد بود و به جمع‌آوری اسناد کمک می‌کرد. دراین‌میان، او داستان‌هایی درمورد روش‌های از هم پاشیدن خانواده‌ها می‌شنید.

از این جهت، برای کیسون که یکی از بنیان‌گذاران اپلیکیشن OurFamilyWizard است، چیز زیادی تغییر نکرده است. اپلیکیشن مذکور، ابزار برنامه‌ریزی و ارتباط برای زوج‌های طلاق گرفته و والدین دارای حضانت مشترک فرزند است که در سال ۲۰۰۱ راه‌اندازی شد.

ایده از کاتلین بود، اما جی طرح تجاری را توسعه داد و ابتدا OurFamilyWizard را به‌عنوان وب‌سایت راه‌اندازی کرد. این وب‌سایت به‌زودی موجب جلب‌توجه کسانی شد که در سیستم حقوقی کار می‌کردند.

قاضی جیمز سونسون در سال ۲۰۰۳ پروژه‌ی آزمایشی را با این پلتفرم در دادگاه خانواده‌ای در شهرستان هنپین مینه‌سوتا اجرا کرد. در این پروژه، ۴۰ نفر از کسانی که سرسخت‌ترین خانواده‌ها بودند، درنظر گرفته شدند. آن‌ها روی پلتفرم قرار گرفتند و پس از مدتی، از سیستم دادگاه ناپدید شدند. وقتی سرانجام فردی در دادگاه ظاهر شد (دو سال بعد)، پس از آن بود که یکی از والدین استفاده از اپلیکیشن را متوقف کرده بود.

طی دو دهه بعد، OurFamilyWizard مورد استفاده حدود یک میلیون نفر قرار گرفت و تاییدیه دادگاه را در سراسر آمریکا دریافت کرد. در سال ۲۰۱۵، این اپلیکیشن در بریتانیا و سال بعد در استرالیا آغاز به کار کرد. اپلیکیشن OurFamilyWizard اکنون در ۷۵ کشور وجود دارد. محصولات مشابه عبارت‌اند از coParenter، Cozi، Amicable و TalkingParents.

برایان کارپف، دبیر انجمن وکلای آمریکا در بخش حقوق خانواده، می‌گوید اکنون بسیاری از وکلا زمانی که می‌خواهند تأثیری بازدارنده بر برقراری ارتباط زوجین داشته باشند، اپلیکیشن‌های حضانت مشترک را به‌عنوان رویه استاندارد توصیه می‌کنند. این اپلیکیشن‌ها می‌توانند عامل بازدارنده‌ای برای اذیت و آزار باشند و دادگاه می‌تواند حکم استفاده از آن‌ها در ارتباطات را صادر کند.

مقاله‌های مرتبط:

در تلاش برای تشویق نیک‌رفتاری، هوش مصنوعی به ویژگی بسیار برجسته‌ای تبدیل شده است. برنامه OurFamilyWizard دارای تابعی به نام ToneMeter است که از تجزیه‌و‌تحلیل عواطف برای نظارت بر پیام‌های ارسال‌شده در برنامه استفاده می‌کند. تجزیه‌و‌تحلیل عواطف زیرمجموعه‌ای از پردازش زبان‌های طبیعی یعنی تجزیه‌و‌تحلیل گفتار انسان است. این الگوریتم‌ها که با استفاده از پایگاه‌های داده زبانی بزرگ آموزش دیده‌اند، متن را تجزیه می‌کنند و با توجه به کلمات و عبارت‌هایی که در آن وجود دارد، به بار عاطفی آن نمره می‌دهند.

درمورد ToneMeter، اگر عبارت دارای بار عاطفی در پیام شناسایی شود، نوارهایی که در برنامه نشان داده می‌شود، به رنگ قرمز درآمده و کلمات دردسرساز علامت‌گذاری می‌شود. برای مثال جمله «تقصیر شما است که دیر کردیم»، می‌تواند به‌عنوان «پرخاشگرانه» علامت‌گذاری شود. عبارت‌های دیگر می‌توانند به‌عنوان «تحقیرآمیز» یا «ناراحت‌کننده» علامت‌گذاری شوند. این موضوع به کاربر بستگی دارد که همچنان بخواهد آن‌ها را ارسال کند.

از ToneMeter در ابتدا در سرویس پیام‌رسانی استفاده می‌شد اما اکنون برای همه نقاط تبادل میان والدین در برنامه کدگذاری می‌شود. شین هلگت، مدیر ارشد تولید، می‌گوید این برنامه به‌زودی نه‌تنها ارتباط منفی را منع می‌کند، بلکه کلام مثبت را نیز تشویق می‌کند. او درحال جمع‌آوری بینش‌هایی از مجموعه گسترده‌ای از تعاملات با این دیدگاه است که برنامه والدین را تشویق کند تا فراتر از گفتگوهای معمولی رفتار مثبتی با هم داشته باشند.

برنامه CoParenter که در سال ۲۰۱۹ آغاز به کار کرد نیز از تحلیل احساسات استفاده می‌کند. والدین ازطریق پیامک با هم گفتگو می‌کنند و اگر پیامی خیلی خصمانه باشد، هشداری ظاهر می‌شود. اگر سیستم به توافق منجر نشود، گزینه‌ای وجود دارد که می‌تواند فرد دیگری را وارد گفتگو کند.

البته، واگذارکردن چنین گفتگوهای پر از احساسی به برنامه، بدون مشکل نیست. برنامه‌های حضانت مشترک ممکن است بتوانند به هدایت رابطه مشکل‌داری کمک کنند؛ اما نمی‌توانند مشکل را حل کنند و گاهی‌اوقات، می‌توانند آن را بدتر کنند. کارپف می‌گوید برخی از والدین برنامه را به سلاح تبدیل می‌کنند و پیام‌هایی می‌فرستند تا طرف مقابل را عصبی کنند تا پیام مشکل‌داری را ارسال کند.

کیسون گفتگویی را که زمان اجرای برنامه ازمایش با یک قاضی داشت، به یاد می‌آورد. قاضی به او گفت: «موضوعی که باید درمورد ابزارهای به خاطر داشته باشید این است که من می‌توانم به شما پیچ گوشتی را بدهم و شما می‌توانید به کمک آن اشیاء را تعمیر کنید یا اینکه آن را درون چشم خود فرو کنید».

مادر و کودک / mother and child

کامپیوتر می‌گوید در آغوش بگیر

در سال ۲۰۱۷، آدلا تیمونز، دانشجوی دکترای روانشناسی دوره کارآموزی بالینی را در دانشگاه کالیفرنیا در سان‌فرانسیسکو و بیمارستان عمومی سان‌فرانسیسکو گذارند. او با خانواده‌هایی از قشر کم‌درآمد کار می‌کرد که دارای کودکان خردسالی بودند که درمعرض تروما قرار گرفته بودند. تیمونز در آنجا متوجه الگوی خاصی شد: بیماران زمانی در درمان پیشرفت می‌کردند که درمان با زندگی روزمره آن‌ها تلفیق شده باشد. او معتقد بود فناوری می‌تواند شکاف بین اتاق درمانگر و جهان واقعی را پر کند. او پتانسیل فناوری‌های پوشیدنی را می‌دید که می‌توانستند در لحظه‌ای که مشکلی درحال آشکارشدن بود، مداخله کنند؛ یعنی «مداخله سازشی به موقع» انجام شود. در تئوری، این وضعیت مانند داشتن درمانگری است که وقتی زنگ هشدار عاطفی به صدا در می‌آید، آماده است تا در گوش شما نجوا کند.

تیمونز، مدیر آزمایشگاه مداخلات فناوری برای سیستم‌های زیست‌محیطی (TIES) در دانشگاه بین‌المللی فلوریدا می‌گوید: «برای انجام کارآمد این کار، باید رفتارهای موردنظر را احساس کنید یا آن‌ها را از راه دور تشخیص دهید».

پژوهش‌های تیمونز که شامل ایجاد مدل‌های محاسباتی از رفتار انسان است، بر ایجاد الگوریتم‌هایی تمرکز دارد که بتواند رفتار زوج‌ها و خانواده‌ها را پیش‌بینی کند. تمرکز او در ابتدا روی زوج‌ها بود.

در یک مطالعه، پژوهشگران ۳۴ زوج جوان را به پایش‌گرهای مُچ و قفسه سینه مجهز کردند و دمای بدن، ضربان قلب و تعریق آن‌ها پیگیری کردند. آن‌ها همچنین به زوج‌ها گوشی‌های هوشمندی دادند که به مکالمات آن‌ها گوش می‌کردند. تیمونز و گروهش با ارجاع متقابل این داده‌ها با نظرسنجی‌هایی که در آن زوج‌ها وضعیت عاطفی و مشاجره‌های خود را توصیف می‌کردند، مدل‌هایی را برای تعیین زمانی که احتمال دعوا بین زوجین بالا است، ایجاد کردند.

عوامل محرک عبارت بودند از ضربان قلب بالا، استفاده مکرر از کلماتی مانند «تو» و عناصر زمینه‌ای مانند زمان روز یا میزان نور اتاق. تیمونز توضیح می‌دهد:

متغیر واحدی وجود ندارد که به‌عنوان شاخص قوی برای یک مرافعه‌ی اجتناب‌ناپذیر عمل کند، اما وقتی اطلاعات متنوعی را داشته باشید که در یک مدل استفاده شود، می‌توانید به سطوح دقت موردنیاز برای الگورتیمی که در جهان واقعی کارآمد باشد، نزدیک‌تر شوید.

تیمونز درحال گسترش این مدل‌ها برای بررسی دینامیک خانواده با تمرکز روی بهبود روابط بین والدین و فرزندان است.

آزمایشگاه TIES درحال ایجاد برنامه‌های موبایل است که هدف آن‌ها درک منفعلانه تعاملات مثبت با استفاده از گوشی‌های هوشمند، فیت‌بیت‌ها و اپل‌واچ (ساعت‌های هوشمند اپل) است. (ایده این است که با فناوری موجود قابل اجرا باشد). ابتدا، داده‌ها جمع‌آوری می‌شود: عمدتا ضربان قلب، لحن صدا و کلام. سخت‌افزار همچنین فعالیت بدنی و اینکه آیا والدین و فرزند با همدیگر بوده یا از هم جدا هستند، را تشخیص می‌دهد.

در مطالعه زوج‌ها، الگوریتم در تشخیص درگیری ۸۶ درصد دقیق بود و توانست با حالات عاطفی خودگزارش‌شده همبستگی ایجاد کند. در شرایط خانواده، پژوهشگران امیدوار هستند که با شناسایی این حالت‌ها، برنامه بتواند به‌طور فعالانه مداخله کند. تیمونز می‌گوید:

این ممکن است اعلانی با این محتوا باشد که «برو فرزندت را در آغوش بگیر»، یا «کار خوب امروز فرزندت را به او یادآوری کن». ما همچنین روی الگوریتم‌های کار می‌کنیم که می‌توانند حالت‌های منفی را تشخیص دهند و سپس مداخلاتی را برای کمک به والدین برای تنظیم احساسات خود ارسال کنند. وقتی احساسات والد تنظیم شود، معمولا وضعیت بهتر می‌شود.

اطلاعات زمینه‌ای نیز به بهبود نرخ‌های پیش‌بینی کمک می‌کند: آیا فرد شب قبل خوب خوابیده است؟ آیا آن روز ورزش کرده است؟ پیام‌واره‌ها می‌تواند به شکل پیشنهادی برای مدیتیشن، تمرین تنفسی یا انجام تکنیک‌های رفتاردرمانی شناختی باشد.

اپلیکیشن‌های ذهن‌آگاهی وجود دارند، اما آن‌ها به‌ندرت به کاربر یادآوری می‌کنند که در لحظه‌ای که خشمگین، ناراحت و آشفته است، از آن‌ها استفاده کند. تیمونز می‌گوید: «در آن لحظات است که کمتر می‌توانید از منابع شناختی خود استفاده کنید. امیدواریم که بتوانیم با آگاه کردن مردم از لحظه‌ای که به استفاده از این مهارت‌ها نیاز دارند، به آن‌ها کمک کنیم».

تیمونز طبق تجربیات خود درزمینه کار با خانواده‌ها معتقد است ساختار سنتی درمان (جلسات ۵۰ دقیقه‌ای یک‌بار در هفته)، موثرترین راه برای تاثیرگذاری نیست. او فکر می‌کند علم مداخله روانشناسی درحال گسترش است. این کار با کمک مالی مؤسسه ملی بهداشت و بنیاد ملی علوم انجام می‌شود و تیمونز امیدوار است این پژوهش‌ها به مراقبت‌های سلامت روان دردسترس، مقیاس‌پذیر و پایدار منجر شود.

هنگامی که آزمایشگاه تیمونز به داده‌هایی برای اثبات اثربخشی و ایمنی آن برای خانواده‌ها دست پیدا کرد، باید درمورد نحوه به کارگیری چنین فناوری تصمیم‌گیری شود.

با گسترش مراقبت‌های بهداشتی مبتنی‌بر داده، حفظ حریم خصوصی یکی از نگرانی‌هایی است که وجود دارد. اپل اخیرا وارد این فضا شده است و بخشی از مطالعه سه سالانه‌ای با همکاری پژوهشگران دانشگاه کالیفرنیا است که در سال ۲۰۲۰ آغاز شد. هدف، بررسی این موضوع است که آیا آیفون‌ها و ساعت‌های هوشمند اپل می‌توانند موارد افسردگی و اختلالات خلقی را تشخیص دهند (و درنهایت بتوانند پیش‌بینی و مداخله کنند). داده‌های دوربین‌ها و حسگرهای صوتی آیفون و نیز حرکات کاربر و حتی نحوه تایپ کردن آن‌ها روی دستگاهشان جمع‌آوری می‌شود. اپل قصد دارد با قرار دادن الگوریتم روی خود گوشی و عدم ارسال اطلاعات به سرورهای خود، از داده‌های کاربران محافظت کند.

در آزمایشگاه TIES، تیمونز می‌گوید هیچ داده‌ای فروخته یا به اشتراک گذاشته نمی‌شود مگر در مواردی که مربوط به آسیب یا سوء‌استفاده باشد. او معتقد است دانشمندانی که چنین فناوری‌هایی را ایجاد می‌کنند، باید درمورد سوء‌استفاده‌های احتمالی فکر کنند: «این مسئولیت مشترک جامعه علمی، قانون‌گذاران و مردم است که حد و مرز قابل قبولی را درون این فضا تعیین کنند».

گام بعدی آزمایش این مدل‌ها در زمان واقعی است تا ببینیم که آیا مؤثر هستند و اینکه آیا پیام‌واره‌ها ارسالی برای کاربر به تغییر رفتار معناداری منجر می‌شود.

رابطه بین زوجین / relationship

ارزیابی روابط

این ایده که حسگرها و الگوریتم‌ها می‌توانند پیچیدگی‌های تعامل انسانی را معنایابی کنند، جدید نیست. برای جان گاتمن، روانشناس روابط، عشق همیشه بازی اعداد بوده است. از دهه‌ی ۱۹۷۰، او در تلاش بوده است تا کیمیاگری روابط را تجزیه‌و‌تحلیل کند.

گاتمن مطالعاتی را روی زوج‌ها انجام داده است. معروف‌ترین کارهای او در آزمایشگاه عشق انجام شده است که مرکز تحقیقاتی در دانشگاه واشینگتن است که آن را در دهه‌ی ۱۹۸۰ تأسیس کرد. نسخه‌ای از آزمایشگاه عشق هنوز در مؤسسه گاتمن در سیاتل فعال است. او این مرکز را در سال ۱۹۹۶ با همکاری همسرش جولی گاتمن روانشناس، تأسیس کرد.

ازنظر کمدی رمانتیک، آزمایشگاه عشق مانند سکانس آغازین فیلم «وقتی هری سالی را دید…» است که به صحنه‌ای در فیلم «ملاقات با والدین» پیوند می‌خورد که در آن رابرت دنیرو دامادش را به دستگاه دروغ‌سنج وصل می‌کند.

در آزمایشگاه عشق گاتمن، افراد دو به دو به دستگاه متصل می‌شدند و از آن‌ها خواسته می‌شد تا با همدیگر صحبت کنند؛ اول درمورد تاریخچه روابطشان، سپس درمورد یک درگیری. در همین حین، اجزای مختلف دستگله نبض، تعرق، لحن صدا و میزان بی‌قراری آن‌ها را روی صندلی پیگیری می‌کرد. در اتاق پشتی که پر از مانیتور بود، حالت‌های چهره توسط اپراتورهای آموزش‌دیده رمزگذاری می‌شد.

هدف آزمایشگاه عشق جمع‌آوری داده‌هایی درزمینه نحوه تعامل و انتقال احساسات زوجین بود. این پژوهش به ایجاد «روش گاتمن» درزمینه مشاوره روابط منجر شد. حفظ نسبت پنج به یک از تعاملات مثبت به منفی مهم است؛ یعنی ۳۳ درصد عدم توانای پاسخگویی به تلاش شریک برای توجه، معادل فاجعه است و حرکات چشم نیز ارتباط محکمی با شکست رابطه دارد. جان گاتمن که از خانه‌اش در جزیره اورکاس در واشینگتن صحبت می‌کرد، گفت: «روابط چندان هم پیچیده نیستند».

گاتمن نیز درحال قدم گذاشتن به قلمرو هوش مصنوعی است. آن‌ها در سال ۲۰۱۸، استارتاپی به نام Affective Software را برای ایجاد پلتفرم آنلاینی برای ارزیابی و راهنمایی روابط تأسیس کردند. این کار از تعاملی در زندگی واقعی و برخورد جولی گاتمن با رافائل لیسیتسیا، کارشناس باتجربه مایکروسافت آغاز شد.

لیسیتسیا، هم‌بنیان‌گذار و مدیرعامل Affective Software، درحال توسعه نسخه مجازی از آزمایشگاه عشق است که در آن زوج‌ها می‌توانند به کمک دوربین روی کامپیوتر، آیفون یا تبلت‌شان، رابطه خود را ارزیابی کنند. در این‌جا هم حالات چهره، و لحن صدا و نیز ضربان قلب مورد نظارت قرار می‌گیرد.

این پیشرفت‌ها نشانگر آن است که تشخیص عواطف یا محاسبات عاطفی تا کجا پیش رفته است. اگرچه آزمایشگاه عشق اولیه توسط صفحات نمایش و دستگاه‌های متعدی پشتیبانی می‌شد، درنهایت به فرد آموزش‌دیده‌ای نیاز بود تا مانیتور را نگاه کند و نشانه‌ها را به درستی رمزگذاری کند. گاتمن هرگز باور نمی‌کرد که بتوان عنصر انسانی را حذف کرد. او می‌گوید:

افراد بسیار کمی بودند که بتوانند عواطف را با دقت بالا رمزگذاری کنند. آن‌ها باید اهل موسیقی می‌بودند و درزمینه‌ی تئاتر نیز مقداری تجربه می‌داشتند. هرگز تصور نمی‌کردم ماشینی بتواند این کار را انجام دهد.

البته همه متقاعد نشده‌اند که ماشین‌ها بتوانند احساسات انسانی را تشخیص دهند. هوش مصنوعی تشخیص‌دهنده احساسات قلمرو متلاطمی است و تا حدود زیادی مبتنی‌بر این ایده است که علائم عاطفی انسان‌ها جهانی است. این تئوری که در دهه‌ی ۱۹۶۰ و ۱۹۷۰ با مشاهدات پل اکمن مطرح شد که سیستم رمزگذاری حالت چهره را ایجاد کرد، به کار گاتمن کمک کرد و اساس بسیاری از نرم‌افزارهای محاسباتی عواطف را تشکیل می‌دهد.

برخی از پژوهشگران مانند لیزا فلدمن بارت، روانشناس دانشگاه نورت ایسترن این پرسش را مطرح کرده‌اند که آیا ممکن است که بتوان عواطف را با اطمینان از روی علامت‌های چهره تشخیص داد.

اگرچه نرم‌افزارهای تشخیص چهره قبلا به‌طور گسترده مورد استفاده قرار می‌گرفتند، شواهدی از تعصب نژادی در برخی از آن‌ها مشاهده شده است. مطالعه‌ای که دو برنامه اصلی را با هم مقایسه کرد، نشان داد که احساسات منفی بیشتری را به چهره‌های سیاه‌پوست نسبت داده بودند.

گاتمن می‌گوید آزمایشگاه عشق مجازی روی پایگاه داده حالت‌های چهره‌ای آموزش دیده است که شامل تمام انواع پوست‌ها می‌شود و سیستم‌های تعاملاتی موجود در گروه‌های مختلف را آزمایش کرده است. او می‌گوید:

می‌دانیم که فرهنگ بر نحوه بیان یا پوشاندن احساسات مردم اثر دارد. ما استرالیا، بریتانیا، کره جنوبی و ترکیه را بررسی کرده‌ایم و به‌نظر می‌رسد سیستم خاصی که ایجاد کرده‌ایم، واقعا کار می‌کند. اما اینکه آیا همه فرهنگ‌ها کار خواهد کرد؟ واقعا نمی‌دانیم.

گاتمن اضافه می‌کند که آزمایشگاه عشق با استفاده از سیستم رمزگذاری اجتماعی عمل می‌کند: این سیستم با درنظر گرفتن گفتگو، لحن صدا، زبان بدن و حالات چهره، روی تشخیص عواطف منحصر‌به‌فرد در لحظه تمرکز کمتری دارد و درعوض روی تجزیه‌و‌تحلیل کیفیت‌های کلی تعامل تمرکز می‌کند. گاتمن می‌گوید این‌ موارد را در کنار هم قرار دهید و می‌توانید با اطمینان بیشتری به مقوله‌هایی مانند خشم، غم، انزجار و تحقیر برسید.

از زوج‌های شرکت‌کننده خواسته می‌شود تا به پرسش‌نامه مفصلی پاسخ دهند، سپس دو مکالمه ده دقیقه‌ای از آن‌ها ضبط می‌شود. یکی بحثی درباره هفته گذشته و دیگری درباره یک درگیری است. پس از بارگذاری فیلم‌ها، زوج‌ها به وضعیت عاطفی خود را در جریان مراحل مختلف گفتگو (از بسیار منفی تا بسیار مثبت: یک تا ۱۰) نمره می‌دهند. سپس برنامه این اطلاعات را به همراه نشانه‌های شناسایی‌شده تجزیه‌و‌تحلیل می‌کند و نتایجی ازجمله نسبت مثبت به منفی، معیار اعتماد و درجه ایرادگیری، حالت تدافعی، تحقیر و ایجاد دیوار سنگی را تعیین می‌کند. هدف این است که از این ابزار با همکاری درمانگر استفاده شود.

از زمان دنیاگیری کووید ۱۹، خدمات درمانی و سلامت روان ارائه‌شده ازطریق تماس‌های ویدئویی رواج زیادی پیدا کرده است. به‌گفته‌ی تحلیلگران مؤسسه تحقیقاتی مک‌کینزی، از زمان دنیاگیری، سرمایه‌گذاری‌های مخاطره‌آمیز در حوزه مراقبت‌های مجازی و سلامت دیجیتال سه برابر شده است و چت‌بات‌های درمانی هوش مصنوعی مانند Woebot درحال تبدیل شدن به جریان اصلی هستند.

درحال‌حاضر، اپلیکیشن‌های مشاوره روابط مانند Lasting مبتنی‌بر روش گاتمن هستند و اعلان‌هایی را ارسال می‌کنند تا به کاربران یادآوری کنند که برای مثال، به شریک زندگی خود بگویند که وی را دوست دارند. شاید برخی فکر کنند این کار موجب تنبلی می‌شود، اما گاتمن آن را به‌عنوان فرایندی آموزشی می‌بیند که ما را به ابزارهای مجهز می‌کند که درنهایت به عادت تبدیل می‌شوند. تیم درحال‌حاضر به نسخه ساده‌ای فکر می‌کند که مستقل از درمانگر استفاده شود.

برای گاتمن‌ها که از این واقعیت الهام گرفتند که بسیاری از زوج‌ها زمان زیادی را صرف گوشی‌های هوشمند خود می‌کنند، فناوری راهی برای مردمی کردن مشاوره باز می‌کند و می‌تواند از راه‌های زیادی زندگی آن‌ها را بهبود دهد.

جیمیل / gmail

ایمیلی برای شما، اما نه توسط شما

فناوری درحال‌حاضر هم ممکن است بدون اینکه متوجه شوید، بر روابط شما تأثیر بگذارد. پاسخ هوشمند (Smart Reply) جی‌میل را درنظر بگیرید؛ پیشنهادهایی که برای نحوه پاسخ دادن به یک نامه ارائه می‌شود و قابلیت نگارش هوشمند (Smart Compose) که پیشنهاد می‌کند چگونه جمله‌های خود را به پایان برسانید. پاسخ هوشمند در سال ۲۰۱۵ به‌عنوان ویژگی تلفن همراه اضافه شد، قابلیت نگارش هوشمند نیز در سال ۲۰۱۸ عرضه شد و هر دو توسط شبکه‌های عصبی تغذیه می‌شوند.

جس هوهنشتاین، پژوهشگر دانشگاه کرنل، اولین‌بار زمانی با پاسخ هوشمند رو‌به‌رو شد که گوگل الو (Google Allo)، پیام‌رسانی که اکنون منسوخ شده است، در سال ۲۰۱۶ راه‌اندازی شد. این برنامه دستیاری مجازی بود که پاسخ‌های پیشنهادی را تولید می‌کرد. او آن را ناخوشایند می‌دانست: «نمی‌خواستم الگوریتمی روی الگوهای گفتاری من تأثیر بگذارد».

او در سال ۲۰۱۹ مطالعاتی را منتشر کرد که نشان می‌داد هوش مصنوعی نحوه تعامل ما با یکدیگر را تغییر می‌دهد. در یک مطالعه با استفاده از گوگل الو، از ۱۱۳ دانشجو خواسته شد تا در شرایطی که یکی از آن‌ها، هر دو یا هیچ‌کدام نمی‌توانستند از پاسخ هوشمند استفاده کنند، وظیفه‌ای را به کمک شریک خود انجام دهند. پس‌از‌آن، از شرکت‌کنندگان سؤال شد تا موفقیت یا شکست در انجام وظیفه را تا چه حد به شخص دیگر (یا هوش مصنوعی) نسبت می‌دهند.

مطالعه دوم روی اثرات زبانی تمرکز داشت: مردم چگونه به پاسخ‌های هوشمند مثبت یا منفی پاسخ می‌دهند؟ هوهنشتاین دریافت کلامی که افراد با پاسخ هوشمند استفاده می‌کنند، به سمت مثبت منحرف می‌شود. احتمال اینکه افراد پیشنهاد مثبت را قبول کنند، نسبت‌به پیشنهاد منفی بیشتر بود. شرکت‌کنندگان همچنین غالبا خود را در شرایطی می‌دیدند که در آن می‌خواستند مخالفت کنند اما فقط عباراتی درزمینه توافق به آن‌ها پیشنهاد می‌شد.

هدف نهایی این است که گفتگو سریع‌تر و روان‌تر پیش برود. هوهنشتاین متوجه شد که این فناوری موجب می‌شود که افراد مشارکت‌کننده در گفت‌وگو احساس بهتری نسبت‌به هم داشته باشند. البته به‌نظر هوهنشتاین، در روابط حرفه‌ای می‌تواند نتیجه معکوس داشته باشد: این فناوری (همراه با تلقین‌پذیری خودمان) می‌تواند ما را از به چالش کشیدن دیگران یا مخالفت بازدارد.

در تلاش برای کارآمدتر کردن ارتباطامان، هوش مصنوعی می‌تواند احساسات واقعی ما را حذف کند و فقط گفتگوهای دوستانه ایجاد کند. برای افرادی که در محل کار هستند که در شرایط عادی نیز مخالفت کردن با نظر دیگران برایشان سخت است، این فناوری می‌تواند موجب شود که آن‌ها نتوانند مخالفت‌ خود را ابراز کنند.

در مطالعه تکمیل وظیفه، هوهنشتاین دریافت که وقتی نتایج مثبت حاصل می‌شد، این موفقیت به انسان‌ها نسبت داده می‌شد اما وقتی مشکلی پیش می‌آمد، هوش مصنوعی سرزنش می‌شد. با انجام این کار، الگوریتم از روابط انسانی محافظت می‌کرد و سپری برای شکست‌های ما فراهم می‌کرد. در این وضعیت، سؤال عمیق‌تری درمورد شفافیت ایجاد می‌شود: آیا باید آشکار شود که هوش مصنوعی به ایجاد پاسخ کمک کرده است؟

هنگامی که یکی از شرکا از پاسخ هوشمند استفاده می‌کرد، ابتدا موجب می‌شد گیرنده احساس مثبت‌تری درمورد شخص دیگر داشته باشد. اما وقتی به آن‌ها گفته می‌شد که هوش مصنوعی در پاسخ‌ها نقش داشته است، آن‌ها احساس ناراحتی می‌کردند. این امر تاییدکننده پارادوکسی است که طی استفاده از چنین فناوری ایجاد می‌شود: «ادراک و واقعیت همسو نیستند».

هنکاک در مقاله‌ی خود بر این موضوع تأکید می‌کند که این ابزار چگونه ممکن است اثرات اجتماعی گسترده‌ای داشته باشند و دستورالعمل پژوهشی را برای پرداختن به انقلابی تکنولوژیک که بیخ گوش ما به وقوع پیوسته است، تعیین می‌کند.

ارتباطات مبتنی‌بر هوش مصنوعی می‌تواند نحوه صحبت کردن ما را تغییر دهد، تعصب را کم کند یا آن را تشدید کند. حتی ممکن است برای ما این سؤال را ایجاد کند که واقعا با چه کسی صحبت می‌کنیم. این نوع ارتباط حتی می‌تواند ادراک ما را از خودمان تغییر دهد.

اما اگر هوش مصنوعی پیام‌های فرستنده را به گونه‌ای تغییر دهد که مثبت‌تر، شوخ‌تر یا خونگرم‌تر باشد، آیا ادراک فرستنده از خود به سمت مثبت‌تر، شوخ‌تر یا خونگرم‌تر تغییر خواهد کرد؟ اگر هوش مصنوعی بیش‌از‌حد روابط ما را دراختیار بگیرد، چه چیزی برای خود ما باقی می‌ماند؟

[ad_2]

مهرداد محمدیAuthor posts

Avatar for مهرداد محمدی

محمدی هستم مدیریت دکو وب متخصص در برنامه ریزی برای طراحی سایت و سئو وب سایت 17 سال زندگی فریلنسری تجربه ای عالی برای من ایجاد کرده که تو بیش از چندین الگو فعالیت کنم . همیشه به یاد داشته باشید که در دنیای خود زندگی خواهد کرد ولی در دنیای ما تجارت

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *