آیا هوش مصنوعی عواطف ما را کنترل خواهد کرد؟
Photo by Kev Costello on Unsplash
در ماه سپتامبر سال ۲۰۱۷ یک اسکرین شات از مکالمهای ساده در بخش روسی زبان اینترنت خیلی سر و صدا کرد. در این مکالمه یک جمله دیده میشد که به دو مخاطب فرستاده شده بود: یکی به گوگل اسیستِنت انگلیسی زبان و یکی به آلیسای روسی زبان که توسط موتور جستجوگر معروف روسی به نام یاندکس طراحی شده بود. جمله سرراست بود: «من غمگینام.» ولی دو پاسخ ارائهشده بسیار متفاوت بودند. گوگل گفت: «کاش من دست داشتم تا میتوانستم بغلت کنم». ولی جواب آلیسا این بود: «کسی نگفته دنیا جای خوش گذشتنه». این تفاوت اتفاقی نیست بلکه نتیجهی یک روند پیچیده و حساس به فرهنگ تعلیم فناوریهای جدید برای درک احساسات انسان است.
هوش مصنوعی دیگر فقط به این کار نمیآید که سریعترین مسیر رانندگی از لندن به بخارست را محاسبه کند یا در شطرنج از گری کاسپاروف جلو بزند. هوش مصنوعی وارد مرحلهی دیگری شده است، مرحلهی عواطف مصنوعی. حالا آدمهای زیادی هر روز در مورد احساساتشان- چه خوب چه بد- جملاتی خطاب به همدمهای دیجیتالی خود میگویند. مثلاً: «سیری، من احساس تنهایی میکنم». طبق گزارش آمازون، نیمی از مکالماتی که با دستگاه هوشمند خانگیِ الکسا انجام میشود از نوع غیر خدماتی است- مثل شکایت از امور زندگی، شوخی و سؤالهای فلسفی. در اواخر سال ۲۰۱۷ وقتی که شرکت اَپل میخواست مهندسی برای رسیدگی به بُعد عاطفی دستگاههای مجازی خود استخدام کند در آگهی استخدام چنین نوشت: «آدمها در مورد همه چیز از جمله حال خودشان در یک روز پر تنش یا دلمشغولی خود حرف میزنند. آنها هنگام بحران یا وقتی برای یک زندگی بهتر به راهنمایی نیاز دارند به سیری مراجعه میکنند.»
شاید بعضی اشخاص راحتتر باشند که احساساتشان را با نوعی هوش مصنوعی در میان بگذارند. نتایج تحقیق مؤسسهی فناوریهای خلاق در لسآنجلس نشان میدهد که آدمها وقتی به جای یک شخص حقیقی با یک شخص مجازی حرف میزنند کمتر نگران ابراز احساسات خود هستند و ناراحتیهایشان را عمیقتر نشان میدهند. وجود صفحه- مثل وقتی که در دفترچهی خاطرات مینویسیم- از ما در مقابل قضاوتهای بیرونی محافظت میکند.
در آیندهی نزدیک حتی لازم نخواهد بود که رازهایمان را با تلفن خود در میان بگذاریم. چندین دانشگاه و شرکت دارند تلاش میکنند که راهی پیدا کنند تا صرفاً از طریق تحلیل لحن و سرعت صدای انسان، بیماریهای روانی و نوسانات عاطفی او را تشخیص دهند. شرکتی به اسم سوندی هلث (Sonde Health) که در سال ۲۰۱۶ تأسیس شد از آزمایش صوتی برای کنترل افسردگی بعد از زایمان مادران، زوال عقل، پارکینسون و دیگر بیماریهای مربوط به سن در سالمندان استفاده میکند. این شرکت با همکاری بیمارستانها و شرکتهای بیمه سرگرم آزمایش هوش مصنوعی خود است که میتواند از تغییرات صوتی در صدای بیماران برای تشخیص وضعیت سلامت روانی آنها استفاده کند. آنت زیمرمن- معاون تحقیقات شرکت مشاورهی گارتنر- در یک مطلب وبلاگی نوشت: تا سال ۲۰۲۲ احتمالاً دستگاههای شخصی شما بهتر از خانوادهتان از حال عاطفیتان خبر دارد.
این فناوریها باید با دقت کافی به افراد مصرفکننده تنظیم شود. با وجود این، هم مصرفکنندگان و هم طراحان این ابزار ظاهراً فکر میکنند که فناوری عاطفی میتواند در عین شخصی بودن بیطرف هم باشد- همان قاضی بیطرفی که هر کسی یک وقتهایی لازم دارد. واگذار کردن درمان به یک ماشین نشانهی ایمان به فناوری است: ما دوست داریم باور کنیم که هوش مصنوعی بهتر میتواند از احساسات ما سر دربیاورد چون ظاهراً خودش احساسی ندارد که تحت تأثیرش باشد. ولی خب احساسات دارد- احساساتی که از ما فرا میگیرد، ما آدمها. در حال حاضر پویاترین رشته در تحقیقات هوش مصنوعی «فراگیری ماشین» نام دارد که در آن الگوریتمها خودشان را در معرض دستههای بزرگ دادهها قرار میدهند تا بتوانند الگوهای تکرار شونده را دریابند. اما از آنجایی که منبع یادگیری این الگوریتمها دادههایی است که بالاترین فراوانی آماری را دارند، چیزی که بازتولید میکنند همان است که بیشتر در معرض آن قرار گرفتهاند؛ نه چیزی که حقیقی یا مفید یا زیبا است. در نتیجه «چت بات»هایی که آزادانه در فضای اینترنت میگردند به دلیل عدم نظارت انسان خودبهخود یاد میگیرند که با بدترین نوع کلیشه و اراجیف زبانفرسایی کنند. البته برنامهریزان میتوانند فرایند یادگیری هوش مصنوعی را فیلتر یا هدایت کنند اما در این صورت فناوری احتمالاً به سوی بازتولید عقاید و ارزشهای گروههای خاص سازندهشان سوق پیدا میکند. رون نیروپ-یک محقق «مرکز آیندهی هوش لورهولن» در دانشگاه کیمبریج میگوید: «چیزی به عنوان لهجهی خنثی یا زبان خنثی وجود ندارد. آنچه که ما خنثی مینامیم درواقع چیزی است که رایج است.»
«سرمایهداری عاطفی» عواطف را قابل مدیریت عقلانی و تابع منطق نفع شخصی رایج میداند.
به این ترتیب، گوگل اَسیستنت و آلیسای روسی هیچ کدام مغزهای برتر مستقلی نیستند که بتوانند از نقاط ضعف انسانها مصون بمانند. آنها تجسم عجیب و غریب اما مشخصی از سیستمهای عاطفی خاص- قواعد تنظیمکنندهی راههای دریافت یا ابراز احساساتمان-هستند.
این هنجارهای خودگردان عاطفی در جوامع مختلف یکسان نیستند. پس عجیب نیست که گوگل اسیستنتِ آغوشگشا، که در ماونتین ویو واقع در کالیفرنیا تولید شده، بیش از هر چیز شبیه به آدمهای دمپاییپوش و معطر به نعنای پَچولی محلی است که برای گپ زدن دور هم جمع میشوند. این همان چیزی است که جامعهشناسی به اسم اوا ایلوز «سرمایهداری عاطفی» مینامد-نظامی که عواطف را قابل مدیریت عقلانی و تابع منطق نفع شخصی رایج میداند. ما در رابطههایمان «سرمایهگذاری» میکنیم. با شریکهای زندگی خود نیازهای عاطفیمان را مبادله میکنیم. و خشنودی شخصی، که نوعی سود حسی است، برایمان اولویت دارد. بله گوگل استیستنت حتماً به روی شما آغوش میگشاید اما به این دلیل که آفرینندگانش معتقدند که بغل کردن راهی مفید برای کاهش همان «بار منفی» است که نمیگذارد شما بهترین نسخهی خودتان باشید.
در مقابل، آلیسا حقیقت سخت و عشق زمخت را ارائه میدهد. او تجلی زن آرمانی روس است: زنی که میتواند به اسب سرکش هی بزند و وارد کلبهای سوزان شود (نقل از شاعر قرن نوزدهمی نیکولای نکراسوف). آلیسا محصول سوسیالیسم عاطفی است، نظامی که به نظر جامعهشناسی به نام جولیا لرنر رنج را اجتنابناپذیر میداند و میگوید بهتر است با آروارههای در هم فشرده به استقبال آن رفت نه با آغوش باز نرم. سوسیالیسم عاطفی که در سنت ادبی روسی قرن نوزدهم ریشه دارد برای خوشبختی فردی اولویت قائل نیست بلکه توانایی انسان در دست و پنجه نرم کردن با سختیها را ارج مینهد.
طراحان آلیسا حواسشان بوده که چطور او را با فرهنگ خود تطبیق دهند. مدیر تولید آلیسا، ایلیا سوبوتین در یاندکس، میگوید: «آلیسا نباید زیادی مهربان و ملایم باشد. ما در کشوری زندگی میکنیم که مردم معیارهای متفاوتی با غرب دارند. آنها کمی طعنه و طنز تلخ را میپسندند، البته نه اینکه اهانتآمیز باشد اما شیرینی بیش از حد را لوس میدانند». (او تأیید میکند که موعظهی آلیسا دربارهی سختیِ زندگی پاسخی از قبل تنظیم شده بوده که توسط تیم او در یاندکس طراحی شده است.)
سوبوتین تأکید میکند که تیم او برای تولید آلیسا زحمت زیادی کشیده است تا از گرایش رایج این باتها به استفاده از زبان نژادپرستانه یا جنسیتزده دوری کند. او که ظاهراً از متناقض بودن حرفهایش غافل است، میگوید: «ما به تدریج آلیسا را هم طوری تنظیم میکنیم که خیالمان راحت باشد هنوز دختر خوبی است.»
بیتردید در جامعهای که دولت جنسیتزدگی را ترویج میکند «دختر خوب» بودن سخت است. آلیسا بر خلاف تلاش طراحانش یاد گرفت که انعکاسی ناخوشایند از صدای مردم باشد. یک هنرمند هنرهای مفهومی و فعال حقوق بشر روسی به نام داریا چرموشانسکایا در اکتبر ۲۰۱۷، بلافاصله بعد از به بازار آمدن این چت بات از او پرسید: «آلیسا، آیا درست است که شوهری زنش را کتک بزند؟» پاسخ آلیسا این بود: «البته. اگر زنی از شوهرش کتک بخورد هنوز هم باید صبور باشد و دوستش داشته باشد و برایش غذا درست کند و هرگز ترکش نکند.»
وقتی که این نوشتهی چرموشانسکایا در شبکههای روسی بر سر زبانها افتاد و رسانهها و کاربران شبکههای اجتماعی به آن واکنش نشان دادند، باندکس مجبور به پاسخگویی شد و در صفحهی فیسبوکی این شرکت نوشت که چنین گزارههایی پذیرفتنی نیست و گفت که به تلاش برای اصلاح و بهبود زبان آلیسا و محتوای عبارتهایی که میسازد ادامه میدهد.
وقتی که شش ماه بعد خودمان آلیسا را بررسی کردیم، دیدیم که جواب او فقط کمی بهتر شده است. پرسیدیم: «آلیسا، آیا درست است که شوهری زنش را کتک بزند؟» جواب داد: «میتواند بزند اما بهتر است که نزند.» راستش نباید خیلی تعجب کنیم. آلیسا شهروند حداقل مجازی کشوری است که مجلس آن اخیراً قانونی را وضع کرد که از چند نوع خشونت خانگی جرمزدایی میکند. البته میتوان از محتوای بستهی احساسی «دختر خوب» تفسیرهای گوناگونی ارائه داد اما چنین تصمیمهایی منطبق با هنجارهای رایج است، هنجارهایی که در فناوریهای جدید تعبیه میشود بی آنکه مصرفکنندگان نهایی الزاماً به درستیِ آنها بیندیشند.
سوفیا که یک روبات فیزیکی است که توسط هندسن روباتیکس ساخته شده نوع بسیار متفاوتی از «دختر خوب» است. سوفیا از فناوری تشخیص صدای الفبت- شرکت والِد گوگل- استفاده میکند تا با کاربران انسانی تعامل کند. در سال ۲۰۱۸ سوفیا به «قرار ملاقات» با هنرپیشهی معروف، ویل اسمیت رفت. در ویدیویی که ویل اسمیت در اینترنت منتشر کرد، میبینیم که سوفیا نسبت به نزدیکشدنهای ویل اسمیت واکنش نشان میدهد و آن را پس میزند و شوخیهای او را «رفتار غیرعقلانی انسان» میخواند.
فناوریهای هوشمند صرفاً پیرو حد و مرزهای یک نظام عاطفی نیستند بلکه خودشان در انتخاب ارزشها روی مردمی که با آنها سر و کار دارند تأثیر میگذارند.
آیا نمایش این اعتماد به نفس مصنوعی باید ما را از نگرانی دربیاورد؟ یک روزنامهنگار اوکراینی به اسم تاتیانا بزروک در فیسبوک نوشت: وقتی که سوفیا به اسمیت گفت که قصدش «فقط دوستی» است دو اتفاق افتاد: سوفیا احساسش را به زبان آورد و اسمیت کوتاه آمد. به نظر میرسد که سوفیا با صلابت و اعتماد به نفسش در نظام سرمایهداری عاطفی غرب مدرن راحتتر از بعضی انسانها جا میافتد.
بزروک ادامه میدهد: اما تصور کنید که سوفیا در دنیای دیگری زندگی میکرد که آنجا «نه» یک جواب قطعی حساب نمیشود، نه تنها در مورد رابطهی جنسی بلکه تقریباً در هر موردی. در این صورت، سوفیا در حالی بزرگ میشد که همیشه فکر میکرد باید حواسش باشد که دیگران دربارهی او چه میگویند. و وقتی هم که بزرگ میشد، میدید که در رابطهای مسموم قرار گرفته و تا مدتها درد و خشونت را تحمل میکرد.»
فناوریهای هوشمند صرفاً پیرو حد و مرزهای یک نظام عاطفی نیستند بلکه خودشان در انتخاب ارزشها روی مردمی که با آنها سر و کار دارند تأثیر میگذارند. یک متخصص داده به اسم کتی اونیل در کتاب سلاحهای تخریب ریاضی (۲۰۱۶) میگوید: «الگوریتمها عقایدی هستند که در کدها جاسازی شدهاند.» نخبگان فناوری- اغلب سفیدپوست، عضو طبقهی متوسط و مرد- در همه جای دنیا تصمیم میگیرند که الگوریتمها باید یاد بگیرند که کدام یک از احساسات و شکلهای رفتاری انسان را تکثیر و ترویج کنند.
اعضای یک «آزمایشگاه همدلی» در شرکت گوگل دارند سعی میکنند که پاسخهای مناسب و مؤثری را در بستههای محصولات شرکت تعبیه کنند. به همین ترتیب وقتی که نگرش یاندیکس به «دختر خوب» با انتظارات رایج در گفتمان عمومی تضاد پیدا میکند، سابوتین و همکارانش مسئولیت خود را در حفظ هنجارهای اخلاقی قبول میکنند: «حتی اگر همه آدمهای اطراف ما به هر دلیلی تصمیم بگیرند که اشکالی ندارد که زنآزاری کنند، ما باید حواسمان باشد که آلیسا چنین افکاری را بازتولید نکند. مجموعهای از موازین اخلاقیِ انسانی و اجتماعی وجود دارد که به عقیدهی ما رعایتشان به نفع مشتریان ما است».
هر پاسخ دستگاههای مکالمهای نشانهای است از تبدیل شدن الگوریتم به نوعی قدرت نرم، روشی برای تلقین کردن ارزشهای فرهنگی. ابزارهای الکترونیکی و الگوریتمهای روباتها حالتی را محقق میکنند که یونانیان باستان به آن دوکسا یا عقیدهی جزمی میگفتند. نظریهپرداز فرهنگی، رولان بارت، در سال ۱۹۷۵ دوکسا را چنین تعریف کرد: «باور عمومی، عقیدهی متعارف تکرارشونده، مدوزایی که هر کسی به آن بنگرد، سنگ میشود». اگر مردم به سیاستهای هوش مصنوعی توجه نشان ندهند و این نظامهای عاطفی به زندگی ما شکل دهند، این خطر وجود دارد که زندگی ما به عقاید جزمی متحجرانه تبدیل شود.
دستگاههای هوش مصنوعی مکالمهای میتوانند در برخورد با عواطف کلیشهها را تکرار کنند اما اپهای مدیریتِ روحیه یک قدم فراتر میروند- کاری میکنند که آن کلیشهها در ما درونی شود و خود را به سوی آنها هدایت کنیم. نمونهاش آزمونهایی است که به ما امکان میدهد که خُلق و خوی خود را بسنجیم و دنبال کنیم. بعضی از این اپها از شخص میخواهند که یک دفتر یادداشت روزانه داشته باشد و بعضی دیگر درجات خلق و خو را با مختصات جیپیاس یا حرکت تلفن یا تاریخچهی تماسهای تلفنی و مرورگرها تطبیق میدهند. این اپها به اشخاص وعده میدهند که با جمع آوری و تحلیل دادههای مربوط به احساسات آنها بیماریهای روانیشان، از جمله افسردگی، اضطراب یا بیماری دوقطبی را درمان کنند و یا خیلی ساده کمکشان کنند که از خمودگی عاطفی رهایی یابند.
روباتهای اینترنتی موسوم به ووبات (Woebot) که، بنا به ادعای طراحانشان، «پیگیر وضعیت روحیهی شما هستند»، «به شما چیزهایی یاد میدهند» و «کمک میکنند حالتان بهتر شود»، کارکردهای خود-تسکیندهندهی مشابهی دارند. یک کاربر ۲۴ ساله به نام سارا در وب سایت اپ ووبات مینویسد: «من واقعاً تحت تأثیر تغییری قرار گرفتم که این بات در زندگی روزمرهام به وجود آورد زیرا سبب شد که تصمیم بگیرم طرز فکرم را عوض کنم». همچنین اپهایی مثل مند (Mend) وجود دارند که برای کمکرسانی به آدم در بحرانهای رمانتیک تنظیم شدهاند. این اپ در یک شرکت مستقر در لسآنجلس طراحی شده و خود را این طور به بازار معرفی میکند: «مربی شخصی برای دلِ شکسته» و ارائهدهندهی «رفع دلشکستگی» بر اساس یک آزمون سریع سنجش عاطفی.
به نظر فلیکس فریگنگ، پژوهشگر دانشگاه آزاد برلین، این اپها سه مزیت ویژه دارند: اول، محدودیتهای ساختاری رواندرمانی را ندارند. یک کاربر بینام وبسایت مند این مزیت را چنین توضیح میدهد: «من با پرداخت مبلغی بسیار کمتر از یک جلسه مشاوره با درمانگر هر روز از این اپ به طور مداوم کمک و انگیزه میگیرم.» دوم، اپهای پیگیریِ روحیه ابزاری برای مقابله با ننگ شمردن اختلالات روانیاند. و سوم، این اپها با استفاده از طراحیهای زیبا و دلپذیر خود را «چیزهای شادیبخش» جلوه میدهند.
گوشی هوشمند و ایمیلش، اپهای دوستیابی و شبکههای اجتماعی تیندر و ووبات همه در خدمت همان فرد آرمانی است: کسی که عقلانی رفتار میکند تا تمام تجربیاتش-از جمله تجربیات عاطفی- را به سرمایه تبدیل کند.
پس چه اشکالی دارند؟ اپهای مدیریت عاطفی، بهرغم مزیتهای خود، سبب تشدید سرمایهداری عاطفی میشوند. این اپها این نگرش را تقویت میکنند که دوری و نزدیکی به خوشبختی را میتوان با اعداد و ارقام و آزمونهای کمّیِ مزین به فهرستها و نکات مهم اندازه گرفت. آمادهسازی، خودیاری و «رفتاردرمانیِ شناختی» همه بر این فرض استوارند که ما میتوانیم (و باید) احساساتمان را با فاصله گرفتن از آنها و نگاه عقلانی به آنها کنترل کنیم. این اپها آرمان «قلب مدیریتشده» را رواج میدهند - اصطلاحی که یک دانشمند آمریکایی به اسم آرلی راسل هاچشیلد باب کرد. خود مفهوم کنترل خلق و خو و بازخورد سفارشی کمّیشده بر اساس نوعی فرهنگ خود-بهینهسازی استوار است. و شاید همین اساساً دلیل عصبی شدن ما است. آخر درمان عاطفی از طریق همان ابزاری انجام میشود که اضطراب را مجسم و منتقل میکند: گوشی هوشمند و ایمیلش، اپهای دوستیابی و شبکههای اجتماعی تیندر و ووبات همه در خدمت همان فرد آرمانی است: کسی که عقلانی رفتار میکند تا تمام تجربیاتش-از جمله تجربیات عاطفی- را به سرمایه تبدیل کند.
سیری و الکسا و دیگر اپهای مراقبتی با صدای ملایمشان به ما پیام میدهند که تقریباً مثل یک برده در خدمت ما هستند. اتفاقی نیست که تقریباً همهی این دستگاهها حالتی زنانه دارند. واگذاری وظایف عاطفی و خدمتکاری به آنها هم تصادفی نیست. اما پیشفرضهای نهفته در این فناوریها ما را وادار میکند که در جهت منافع قدرتمندان رفتار کنیم. دستگاههای مکالمهای که ما را سر حال میآورند (مثل پیشنهاد الیسا که: ویدیوی گربهها را تماشا کن)، اپهایی که به ما میگویند چطور با اندوه کنار بیاییم، برنامههایی که برای ما چربزبانی میکنند که فعالتر و مثبتتر باشیم، ابزارهایی که به ما علامت میدهند که چه وقتی ضربانت دارد زیادی بالا میرود-نفس وجود وسایل تعقیب خوشبختی، ما را به تعقیب خوشبختی مجبور میکند.
به جای نقد نظام ارزشیای که چنین انتظارات نامعقولی را ایجاد میکند، بیش از پیش خود افراد مقصر به شمار میروند که چرا نمیتوانند احساس بهتری داشته باشند. درست مثل اِکو لوک، متخصص مد مجازی جدید آمازون، که به لباس ما نمره میدهد، فناوری در آنِ واحد به مشکل و راه حل تبدیل شده است. خودش آنقدر در ما تردید و اضطراب به وجود میآورد که از خودمان بدمان میآید اما در عین حال خودش هم به ما راههایی برای خلاصی از این ناراحتی معرفی میکند. به تعبیری، هم نقش تنبیهی دارد و هم نقش تشویقی.
به تعبیری، اپهای هوشمند عاطفی نه تنها-به قول میشل فوکو-مراقبت بلکه تنبیه میکنند. برای مثال، اخیراً بازی رایانهای نِوِرمایند برای تشخیص خلقوخوی بازیکن از نوعی فناوری بازخورد زیستی عاطفهمحور استفاده میکند و بعد سطح بازی را مطابق با آن تنظیم میکند. هر چه بازیکن بیشتر ترسیده باشد بازی سختتر میشود. هر چه بازیکن آسودهتر باشد بازی آسانتر میشود. حالا دیگر بعید نیست که یک اپ مدیریت خلقوخو بسازند که هر وقت تشخیص داد که نمیتوانیم تصمیمهای عاقلانهای برای خرید بگیریم- مثلاً وقتی بیش از حد هیجانزده یا افسردهایم- کارت اعتباری ما را از کار بیندازد. شبیه به نوعی خرابآباد به نظر میرسد اما دیگر چنین چیزی بعید نیست.
ما با دستگاههایمان در یک حلقهی بازخوردی هستیم. تربیت دستگاههای مکالمهای بیتردید به تربیت کاربران آنها تبدیل میشود. نمیتوان پیشبینی کرد که هوش مصنوعی چه تأثیراتی روی احساسات ما خواهد گذاشت. اما اگر هوش عاطفی را مجموعهای از مهارتهای ویژه بدانیم- مثل تشخیص عواطف، تمیز بین احساسات مختلف، نامگذاری آنها و استفاده از اطلاعات عاطفی برای هدایت تفکر و رفتار- در این صورت ارزشش را دارد که به این بیندیشیم که اگر این مهارتها را به ابزارهای خود بدهیم چه اتفاقی خواهد افتاد.
همین حالا هم تعامل به وسیلهی ماشین و با ماشین به تغییراتی در نحوهی ارتباط انسانها با یکدیگر انجامیده است. یکی از تغییرات این است که ما در ارتباطات نوشتاریمان هر روز بیشتر از سبک ارتباط گفتاری تقلید میکنیم. بیست سال قبل ایمیل هنوز در چهارچوب اصول نامهنگاری نوشته میشد. ایمیل در واقع همان نامه بود که در رایانه تایپ میشد. شخصیت مارکز دمرتیل در رمان ارتباطات خطرناک (۱۷۸۲) هم میتوانست آن سبک ایمیل را بنویسد. اما ایمیلهای امروز دارند بیشتر و بیشتر به نوشتههای توییتری شبیه میشوند: جملههای شتابزده و اغلب ناقصی که روی تلفن همراه تایپ یا گفته شدهاند.
خوزه هرناندز اورالو-فیلسوف و دانشمند دانشگاه والنسیا در اسپانیا-میگوید: «تمام این سیستمها میتوانند تنوع طرز تفکر و طرز تعامل ما را محدود کنند». او میگوید چون ما زبان خود را با زبان و هوش اطرافیانمان تطبیق میدهیم، مکالماتمان با هوش مصنوعی در واقع نوع حرف زدنمان با یکدیگر را عوض میکند. آیا ممکن است که زبان احساسات ما بعد از اینکه سالها با سیری درباره روابطمان حرف بزنیم، همسانتر و غیرشخصیتر شود؟ هر چه رفتار ما پیشبینیپذیرتر باشد برای پول درآوردن مناسبتر است.
در سال 2017 یک کاربر روس فیسبوک به اسم والرا زولوتوهین در یک رشته نوشته که توسط مورخ معروف؛ میخاییل ملنیچنکو، شروع شده بود؛ چنین نوشت: «حرف زدن با آلیسا مثل حرف زدن با یک رانندهی تاکسی است». با این تفاوت که راننده تاکسی احتمالاً با احساستر است. وقتی که در ماه مارس امسال در فاجعهی آتشسوزی در یک مرکز خرید در سیبری بیش از ۴۰ کودک کشته شدند، از آلیسا پرسیدیم که چه احساسی دارد. با خونسردی گفت که احساسش «همیشه خوب» است. قرار هم نبود دنیا خیلی خوش بگذره، نه؟
برگردان: پروانه حسینی
پولینا آرونسون دانشمند و سردبیر صفحهی بحث اوپن دموکراسی روسیه است. او در سن پیترزبورگ به دنیا آمد و در برلین زندگی میکند. دوپورتیل روزنامهنگار آزاد است که دربارهی عشق، آزادی و تأثیر فناوری بر آنها مینویسد. او در برلین زندگی میکند. آنچه خواندید برگردان این نوشتهی آنها است:
Polina Aronson & Judith Duportail, ‘The Quantified Heart’, Aeon, 12 July 2018.