نویسنده: آلخاندرو مارکو دل پونت
ترجمه: مجلهٔ جنوب جهانی

صحنه را تصور کنید: ساعت یازده شب است؛ روی کاناپه لم داده‌اید و انگشتتان به‌طور مکانیکی روی صفحهٔ نمایش می‌لغزد. چهل دقیقه است که ویدئوهای آشپزی تماشا می‌کنید، بی‌آنکه هرگز آن غذاها را بپزید؛ مجادلات سیاسی را دنبال می‌کنید که هیچ تأثیری در آن‌ها ندارید، و به لبخندهای مصنوعی چهره‌های تأثیرگذاری خیره شده‌اید که نمی‌شناسید. ناگهان پستی ظاهر می‌شود؛ مطلبی دربارهٔ مهاجرت، فوتبال یا اظهارات فلان سیاستمدار. دقیقاً نمی‌دانید چیست، اما چیزی در درون‌تان منقبض می‌شود. نظری تند می‌نویسید، ارسال می‌کنید و منتظر پاسخ می‌مانید. وقتی دوباره به ساعت نگاه می‌کنید، یک ساعت دیگر گذشته است. با خود عهد می‌بندید که فردا اوضاع متفاوت خواهد بود، اما نخواهد بود.

پشت این صفحه، الگوریتمی نهفته است که دستانش را به نشانهٔ رضایت به هم می‌مالد؛ خشم شما به‌تازگی برای کسی درآمدزایی کرده است. آن شخص می‌تواند ایلان ماسک یا مارک زاکربرگ باشد؛ تفاوتی نمی‌کند. سیستم به‌درستی کار کرده است. این یک خطا نیست؛ این ذاتِ تجارت است.

سال‌ها بر این باور بودیم که شبکه‌های اجتماعی میدان‌های عمومیِ پرهم‌وهیاهو اما بی‌طرفی هستند؛ جایی که بهترین و بدترینِ انسان‌ها در شرایطی برابر به رقابت می‌پردازند. به ما گفته‌اند که نفرت، دروغ و قطبی‌سازی، عوارض جانبیِ موفقیت و حوادثی تأسف‌بار در جریان یک انقلاب تکنولوژیک شگرف‌اند. این روایت تسلی‌بخش است، اما حقیقت ندارد. همچون کارآگاهی که صحنهٔ یک جنایت شرکتی را بازسازی می‌کند، می‌توانیم رد پول را دنبال کنیم و دریابیم که نفرت «علیرغم» سیستم به شبکه‌ها راه نمی‌یابد، بلکه «به‌واسطهٔ» آن نفوذ می‌کند.

این مقاله، «کتابچهٔ راهنمای تاریکِ شبکه‌های اجتماعی» است؛ نه دستورالعملی مخفی که از سیلیکون‌ولی درز کرده باشد، بلکه نقشه‌راهی ترسیم‌شده بر پایهٔ سه پژوهش اخیر: تحلیل پویایی‌های نفرت در «ایکس» (توییتر سابق) که در مجلهٔ هلیون (از مجموعهٔ ScienceDirect) منتشر شده، گزارش پتر تورنبرگ دربارهٔ الگوی تجاریِ تضلیل رسانه‌ای (Information Disorder) در دِ کانورسیشن، و آزمایش مجلهٔ ساینس که نشان داد الگوریتم‌ها چگونه می‌توانند تنها در ده روز به قطبی‌سازی سیاسی دامن بزنند. با کنار هم گذاشتن این قطعات، می‌توان پازل را کامل کرد.

برای درک درست ماجرا، از ساده‌ترین اصل شروع کنیم: یک شبکهٔ اجتماعی، شرکتی تکنولوژیک نیست؛ بلکه شرکتی تبلیغاتی است که از فناوری برای فروش «توجه» ما بهره می‌برد. محصول آن‌ها پلتفرم‌هایی نیست که رایگان استفاده می‌کنیم، بلکه خودِ ما هستیم؛ زمان، احساسات و داده‌های ما. الگوریتم‌ها هوش‌های بی‌طرفی نیستند که آنچه را می‌خواهیم ببینیم به ما نشان دهند؛ بلکه پیش‌خدمت‌های آموزش‌دیده‌ای هستند که غذایی را سرو می‌کنند که ما را به سفارش نوشیدنیِ بیشتر وادارد، حتی اگر به ذائقه‌مان خوش نیاید. اگر رستوران دریابد که تندیِ غذا ما را پای میز نگه می‌دارد، گارسون برای ما آب نمی‌آورد، بلکه تندیِ بیشتری خواهد آورد.

اما این صرفاً یک استعاره نیست، بلکه یک صنعت است؛ و مانند هر صنعتی، زنجیرهٔ ارزش، بازیگران، حاشیهٔ سود و پیامدهای بیرونی خود را دارد. بازار جهانی تبلیغات دیجیتال در سال ۲۰۲۵ به ۶۹۰ میلیارد دلار رسید. برای درک این رقم: این مبلغ از تولید ناخالص داخلی کشورهایی نظیر سوئیس یا ترکیه بیشتر است. این جریان پولی است که بیست سال پیش وجود نداشت و امروزه ارزشمندترین شرکت‌های کرهٔ خاکی را سرپا نگه داشته است.

این کیک چگونه تقسیم می‌شود؟ پلتفرم‌ها (متا، آلفابت، بایت‌دنس، ایکس) بیشترین سهم را تصاحب می‌کنند. «متا» در سال ۲۰۲۴ سودی خالص معادل ۶۲.۳ میلیارد دلار کسب کرد که ۵۹ درصد نسبت به سال قبل افزایش داشت. «آلفابت»، شرکت مادر گوگل و یوتیوب، از مرز ۱۰۰ میلیارد دلار سود خالص گذشت. این درآمدها نه از فروش خودرو یا دارو، بلکه از مدیریت توجه ما حاصل می‌شوند. سپس واسطه‌های فناوری، موسوم به صنعت «اَدتِک» (AdTech) می‌آیند؛ شرکت‌های مبهمی که نرم‌افزارهای مسئولِ ردیابی ما در فضای اینترنت را هدایت می‌کنند. این شرکت‌ها که بسیاری از آن‌ها برای عموم مردم ناشناخته‌اند، از هر نمایش آگهی، هر کلیک و هر تبادل داده، کارمزد دریافت می‌کنند. و در انتهای زنجیره، تولیدکنندگان محتوا و چهره‌های تأثیرگذاری قرار دارند که آموخته‌اند تحریکِ مخاطب بیش از اعتدال سودآور است و یک ویدئوی جنجالی می‌تواند هزینهٔ خرید خانه‌ای در میامی را تأمین کند.

کتابچهٔ راهنمایی که در ادامه می‌گشاییم، سه لایهٔ عمقی دارد، همچون لایه‌های یک پیازِ فناوری: نخست، لایهٔ «نظارت»؛ اینکه چگونه داده‌های ما به نفت تبدیل می‌شوند. دوم، لایهٔ «آموزش»؛ اینکه چگونه الگوریتم‌ها مسموم‌کردن ما را می‌آموزند. سوم، لایهٔ «تجاری‌سازی»؛ اینکه چگونه خشم به دلار، یورو یا پزو تبدیل می‌شود و چه کسی آن را تصاحب می‌کند.

لایهٔ نخست: نظارت نامحسوس
لایهٔ اول خاموش‌ترین بخش است و شاید به همین دلیل آن را عادی‌سازی کرده‌ایم. شبکه‌ها رایگان نیستند. ما با چیزی بسیار خصوصی‌تر از پول هزینه می‌پردازیم؛ با هر مکث انگشت بر صفحه، با هر ویدئویی که تا انتها می‌بینیم (حتی اگر ملال‌آور باشد) و با هر «لایک» که افشاگر یک احساس است. در سال ۲۰۲۶، هوش مصنوعی دیگر نیازی ندارد بپرسد چه حسی داریم؛ آن را از سرعت تایپ کردن ما، از میزان روشنایی صفحه در ساعت سه بامداد، و از اینکه آیا بیشتر تصاویر گربه‌ها را به اشتراک می‌گذاریم یا تصاویر اعتراضات را، استنتاج می‌کند. گویی همسایه‌ای جاسوس، بیست‌وچهار ساعته از پنجره ما را زیر نظر دارد، یادداشت برمی‌دارد و حال‌وهوای ما را پیش از آنکه خودمان بدانیم، پیش‌بینی می‌کند.

آرژانتین قانون حمایت از داده‌ها (قانون ۲۵.۳۲۶) را دارد که روی کاغذ ضعیف به نظر می‌رسد. اما پلتفرم‌ها از دلاور، دوبلین یا سنگاپور فعالیت می‌کنند و داده‌های ما از طریق کابل‌های زیردریایی جابه‌جا می‌شوند که هیچ مقررات محلی به آن‌ها دسترسی ندارد. هر بار که شرایط را بدون مطالعه می‌پذیریم، یک دفترچهٔ خاطرات محرمانه را در ازای سرگرمی واگذار می‌کنیم. این تجارت از آن رو تداوم دارد که این دادوستد نامرئی است: ما خروج پول از جیبمان را نمی‌بینیم، فقط ویدئوها را می‌بینیم. با این حال، همین معاوضه زیربنای تمام مراحل بعدی است.

لایهٔ دوم: آموزش الگوریتمی
لایهٔ دوم، مرحلهٔ آموزش است. الگوریتم‌ها با دانشِ اینکه چه چیزی ما را به خشم می‌آورد، متولد نمی‌شوند؛ آن‌ها یاد می‌گیرند. این کار را از طریق «یادگیری ماشین» انجام می‌دهند؛ واژه‌ای شیک برای توصیف فرآیندی تقریباً کودکانه: آزمون و خطا در مقیاسی سیاره‌ای. یک الگوریتم، هزاران نسخه از یک «فید» واحد را آزمایش می‌کند. مدت‌زمان حضور ما، ثبت نظر یا بازگشت مجدد ما را اندازه‌گیری می‌کند. برای مثال، درمی‌یابد محتوایی که تقابل «آن‌ها» علیه «ما» را ترویج می‌کند، ۶۷ درصد تعامل بیشتری برمی‌انگیزد. درمی‌یابد تصاویر دستکاری‌شده بیش از واقعیت‌های تأییدشده موجب کلیک می‌شوند. درمی‌یابد که عصبی‌شدن، اعتیادآور است.

آزمایشی اخیر در مجلهٔ ساینس این امر را با صراحت نشان داد. تیمی از پژوهشگران، افزونه‌ای برای مرورگر ساختند که ترتیب پست‌ها را در «ایکس» تغییر می‌داد. هنگامی که حضور محتوای حاوی خصومت حزبی را به‌صورت مصنوعی افزایش دادند، کاربران قطبی‌تر شدند. زمانی که آن محتوا را کاهش دادند، قطبی‌سازی فروکش کرد. این نتیجه‌گیری آزاردهنده است زیرا هرگونه ابهام را از میان می‌برد: مشکل آن چیزی نیست که کاربران می‌خواهند، بلکه آن چیزی است که الگوریتم سرو می‌کند. اگر گارسون فقط غذاهای تند بیاورد، مشتری در نهایت باور خواهد کرد که این تنها گزینهٔ موجود در منو است.

اسناد داخلی فیس‌بوک که در سال ۲۰۲۱ توسط افشاگر، فرانسیس هاگن، برملا شد، فاش کرد که شرکت کاملاً آگاه بود اینستاگرام سلامت روان نوجوانان را وخیم‌تر می‌کند. آن‌ها همچنین می‌دانستند که الگوریتم، افراط‌گرایی را تقویت می‌کند. می‌دانستند که غیرفعال‌کردن مکانیسم‌های انتشار ویروسی، تضلیل رسانه‌ای را کاهش می‌دهد. اما هر یک از این راهکارها، زمان حضور در صفحه را کاهش می‌داد و زمان حضور، مادهٔ اولیهٔ تبلیغات است. تصمیم تجاری همواره یکسان بود: بهینه‌سازی برای رشد و پذیرش آسیب‌های جانبی. این یک توطئه نیست، این حسابداری است.

لایهٔ سوم: تجاری‌سازی خشم
لایهٔ سوم مربوط به پول است. مکانیسم به شکلی وحشیانه ساده است: زمان بیشتر در اپلیکیشن یعنی مشاهدهٔ آگهی بیشتر، و آگهی بیشتر یعنی پول بیشتر. برای آنکه زمان بیشتری صرف کنید، الگوریتم نیاز دارد شما را فعال، در حال نظردهی، اشتراک‌گذاری و خشمگین نگه دارد. نفرت کارآمد است زیرا آنی و بی‌واسطه است. یک دروغ رسواکننده سریع‌تر از یک حقیقتِ ظریف سفر می‌کند، زیرا نیازی به زمینه (Context) ندارد، درنگ نمی‌طلبد و به تردید دعوت نمی‌کند؛ فقط واکنش می‌طلبد. و هر واکنش یک داده است، هر داده یک پیش‌بینی، و هر پیش‌بینی، آگهی‌ای است که دقیق‌تر هدف‌گذاری شده است.

پژوهش پرتغالی منتشرشده در هلیون قطعه‌ای را ارائه می‌دهد که تصویر را کامل می‌کند. پژوهشگران هزاران گفتگو در «ایکس» را تحلیل کردند و دریافتند که گفتمان نفرت معمولاً در داخل جوامع متولد نمی‌شود، بلکه از بیرون وارد می‌شود. این‌ها نفوذی‌هایی هستند که به رشته‌گفتگوهای (Threads) دیگران هجوم می‌برند، پیام تهاجمی خود را پرتاب می‌کنند و ناپدید می‌شوند. الگو مشخص است: نفرت در دو ساعت نخست یک گفتگو متمرکز می‌شود؛ یعنی زمانی که رویت‌پذیری در حداکثر است و تأثیر می‌تواند انفجاری باشد. این امر خودجوش نیست؛ تاکتیکی است. این محتوایی است که طراحی شده تا توجه را در آسیب‌پذیرترین لحظه‌اش به گروگان بگیرد.

این یافته، این روایت را که شبکه‌ها صرفاً بازتاب‌دهندهٔ شرارتِ پیشینِ بشری هستند، در هم می‌شکند. کاری که آن‌ها انجام می‌دهند، تقویت گزینشی آن، پاداش‌دهی با رویت‌پذیری، و تشویق با درآمدزایی است. تولیدکنندگان محتوا این را می‌دانند. انتشار مطلبی معتدل، صادقانه و دقیق، راهی سریع به سوی گمنامی است. انتشار مطلبی آتشین، ساده‌انگارانه و سیاه‌وسفید، راهی سریع به سوی ویروسی شدن است. بازار قیمت‌های خود را تعیین کرده است و صداقت، جایگاهی در تالار بورس ندارد.

در سال ۲۰۲۰ لحظه‌ای فرارسید که گویی تغییری در راه است. تحت شعار «توقف نفرت برای سود»، بیش از هزار برند به تحریم تبلیغاتی علیه فیس‌بوک پیوستند. گروه‌های حقوق مدنی مستقیماً به همدستی این پلتفرم با نژادپرستی و تضلیل رسانه‌ای اشاره می‌کردند. برندهای جهانی نظیر کوکاکولا، استارباکس و یونیلیور میلیون‌ها دلار از بودجهٔ تبلیغاتی خود را خارج کردند. مارک زاکربرگ تغییراتی را اعلام کرد: برچسب‌گذاری بر پست‌های بحث‌برانگیز، حذف محتوای برتری‌جویانه و اصلاح سیستم‌های پیشنهادی.

اما تأثیر مالی نامحسوس بود. فیس‌بوک همچنان ثروت‌های کلان به دست آورد. تحریم کمرنگ شد و برندها بازگشتند. سیستم تاب‌آوری خود را اثبات کرد. سیستم نیازی ندارد که تمام تبلیغ‌کنندگان همراه باشند، بلکه تعداد کافی کفایت می‌کند؛ و همیشه تعداد کافی وجود دارد. تا زمانی که انزجار جمعی به اندازهٔ یک چرخهٔ خبری دوام بیاورد و ترس از دست دادن فروش برای همیشه باقی بماند، محاسبات شرکتی ثابت خواهد ماند.

تکان‌دهنده‌ترین نکته در این کتابچه، افشاگری نیست، بلکه طبیعی‌انگاریِ آن از سوی ماست. ما خشمگین می‌شویم، به اشتراک می‌گذاریم، بحث می‌کنیم و فرسوده می‌شویم؛ و روز بعد تکرار می‌کنیم. شبکه‌ها مهندسیِ اعتیاد عاطفی را به کمال رسانده‌اند. آن‌ها می‌دانند که ترس بیش از امید می‌فروشد، خشم بیش از آرامش کاربر را نگه می‌دارد، و سادگی بیش از پیچیدگی بازدهی دارد. آن‌ها امپراتوری‌های خود را بر استثمار بدترین غرایز ما بنا کرده‌اند و این کار را با رضایتِ ما، که در قالب کلیک‌ها بیان شده، انجام داده‌اند.

اما شاید خطرناک‌ترین کار شبکه‌ها، قطبی‌سازی یا دروغ‌گویی به ما نباشد؛ بلکه این باشد که ما را قانع کرده‌اند این تنها جهانِ ممکن است. اینکه تبلیغات مبتنی بر رفتار، تنها راه تأمین مالی ارتباطات دیجیتال است. اینکه الگوریتم باید برای تولید «لایک» بهینه‌سازی شود چون معیار دیگری در دسترس نیست. اینکه نظارت بر محتوا یک مشکل فنی است و نه یک تصمیم سیاسی. آن‌ها ما را متقاعد کرده‌اند که جایگزینی وجود ندارد، و این باور، عمیق‌ترین گودالی است که حفر کرده‌اند.

این کتابچه که گشودیم، حمله‌ای به تکنولوژی یا دلتنگی برای گذشتهٔ آنالوگِ آرمانی نیست؛ بلکه دعوتی است به استفاده از این ابزارها با چشمانی باز. دفعهٔ بعد که آن موج خشم را حس کردید در حالی که انگشتتان بر صفحه می‌لغزد، درنگ کنید. از خود بپرسید: آیا این مطلب به من آگاهی می‌دهد یا دارد از من استفاده می‌کند؟ آیا این پست برای ابلاغ چیزی به من وجود دارد یا برای برانگیختن واکنشی در من؟ وقتی من مهار اعصابم را از دست می‌دهم، چه کسی سود می‌برد؟

زیرا در حالی که شما خشمگین هستید، کسی در کالیفرنیا در حال شمردن پول است. و در حالی که ما بحث می‌کنیم که مشکل از چپ است یا راست، الگوریتم‌ها به یادگیری ادامه می‌دهند. و در حالی که دولت‌ها دربارهٔ کمیسیون‌ها بحث می‌کنند و روزنامه‌ها تحلیل منتشر می‌کنند و دانشگاهیان مقاله می‌نویسند، ارزش سهام «متا» یک درصد دیگر رشد می‌کند.

نفرت، خطای سیستم نیست؛ بلکه سیستم در اوج بهره‌وریِ خود است. پرسش این نیست که آیا شبکه‌ها می‌توانند تغییر کنند یا خیر؛ پرسش این است که آیا ما می‌توانیم پیش از آنکه هزینهٔ تغییر نکردن برگشت‌ناپذیر شود، آن را مطالبه کنیم؟ دفعهٔ بعد که اپلیکیشن را باز کردید، به یاد داشته باشید: شما مشتری نیستید، شما محصول هستید؛ و سودآورترین محصول آن است که نمی‌داند در حال فروخته‌شدن است.