نشست علمی «هوش مصنوعی و مشارکت سیاسی در جمهوری اسلامی ایران»
با حضور سرکار خانم دکتر راضیه مهرابی کوشکی عضو هیأت علمیپژوهشکده مطالعات فناوری و دکتر قاسمی دبیر ستاد فناوریهای هوشمند حوزههای علمیه
به گزارش خبرنگار نشست علمی «هوش مصنوعی و مشارکت سیاسی در جمهوری اسلامی ایران» از سلسله پیش نشست های همایش ملی «دین، فرهنگ و رسانههای نوین» با حضور سرکار خانم دکتر راضیه مهرابی کوشکی عضو هیأت علمیپژوهشکده مطالعات فناوری و دکتر قاسمی دبیر ستاد فناوریهای هوشمند حوزههای علمیه 16 بهمن ماه در دانشکده دین و رسانه برگزار شد.
در این نشست مقومات هوش مصنوعی توسط قاسمی تشریح و تفاوت آن با هوشمندسازی بیان شد.
دبیر جلسه در تشریح مباحث گفت: در رابطه با هوش مصنوعی سه سطح از مباحث مطرح است یکی از مباحث بنیادین، بحث الگوریتم ها است که در واقع بحث پشت نرم افزار هوش مصنوعی است و متخصصین دانش در این علوم متفاوت از فضای دانش هستند. سطح دوم نیز در خصوص روندها و راهبردها در هوش مصنوعی است که درتحول و دگرگونی فضای جدید جهانی موضوعی مهم است. سطح دیگرکه در مورد بررسی ما است، کاربردهای هوش مصنوعی و تاثیرات و پیامدهای آن در عرصه علوم اجتماعی انسانی و سیاست است.
در ادامه مشروح ارائه دکتر قاسمی تقدیم شما میشود:
فرمایشات رهبری نگاه به هوش مصنوعی را در کشور تغییر داد
چند نگاه به هوش مصنوعی میتوان داشت: نگاه ابزارگرایانه که طرفداران بسیاری هم در داخل و خارج از ایران دارد؛ این نگاه هوش مصنوعی را دارای فرصت ها و تهدیداتی می داند و بیشتر به دنبال توسعه کابرد ها است. قبل از فرمایش مقام معظم رهبری در 26 آبان 1400 عمده تحرکات جریانات در حوزه فهم اولیه هوش مصنوعی فعال بوده و در چارچوب یک ابزارِ افزایش دهنده بهره وری به آن نگاه میکردند که به دنبال حل خلأهای نظام حکمرانی سابق از طریق این فناوری بودند.
نگاه دوم نگاهی است که طرفداران داخلی و خارجی داشته و به تهدیدات هوش مصنوعی تاکید دارد و باتوجه به اینکه بستر مورد نظر را در این حوزه نداریم که در نهایت منجر میشود به کمبود در حوزههای زیرساخت پردازشی و همچنین در حوزه الگوریتم ها و مسائل حقوقی؛ طبیعتا دشمن در این حوزه استفاده میکند و ما باید مراقب تهدیدات باشیم.
رویکر سوم رویکردی است که مقام معظم رهبری فرمایش کردند که ما باید جز ده کشور برتر در این حوزه باشیم چرا این علم در حال توسعه کاربرد ها و اقتدار آفرینی است که در اداره دنیا نیز نقش خواهد داشت؛ هوش مصنوعی یک چارچوب مناسبی در الگوی حکمرانی میتواند ایجاد کند و کشور هایی که از این علم برخوردار هستنند یک وجه تمایز از بقیه دارا هستند.
هوش مصنوعی یک ابزار حکمرانی است
رهبری در ادامه میفرماید: این هوش مصنوعی یک فناوری نیست که آن را یک ابزار و یا تهدید برشماریم بلکه یک ابزار حکمرانی است که میتواند در پایهگذاری یک نظام ارزشی کمک کننده باشد. طبق آمار دستگاههای اطلاعاتی، سیاسی و امنیتی در کشور بیش از 30 درصد تهدیدات فتنه سال گذشته با هوش مصنوعی و ابزار های سوشال مدیا صورت گرفته و جامعه مارا تحت تاثیر قرارداد. خوشبختانه بعد از فرمایش مقام معظم رهبری تلقی از هوش مصنوعی اصلاح شده و سعی شده توسط نهادهای متولی کنشگریهای مهمی انجام گیرد از این رو سند ملی هوش مصنوعی دنبال شده است. باید فهم خود را از هوش مصنوعی در چهارچوب یک الگوی حکمرانی جدید ارتقا بدهیم.
موضوع ماهیت شناسی هوش مصنوعی در سیاست مهم است و نوع تعریف ما از آن در سیاست نقش آفرین است. فعالیت هایی را بشر انجام داده تا مراتب ادراک را از انسان به ماشین منتقل کند و ماشین را به یادگیری مجهز کند تا بدون دخالت انسان تصویر و فعلی را انجام دهد. هوشمندسازی با هوش مصنوعی متفاوت است زیرا در هوش مصنوعی خود ماشین بدون دخالت انسان باید بتواند کاری را انجام دهد. عمده آنچه در کشور در حال انجام است هوشمند سازی است.
پدیده هوش مصنوعی سه مقوم اساسی دارد که هر سه باید باشند تا هوش مصنوعی قوام پیدا کند: اولین آن دادهها و کلان دادهها است. حساسیت کلان داده مورد توجه مجلس شورای اسلامی قرار گرفته و قانون «مدیریت داده و اطلاعات ملی» طراحی شده است تا دادههای مالی، حمل و نقل، مخابراتی و... متولی پیدا کند و اگر یکی از شرکت های دانش بنیان بخواهد شرکتی شکل دهد به آن متولی مراجعه میکند و با هوش مصنوعی برای آن پروژه تعریف کند. اصل مسأله داده و ایجاد یک کلان داده از مقومات اساسی هوش مصنوعی است و از آنجا که هر جا داده وجود داشته باشد هوش مصنوعی پدید می آید میتوان گفت هوش مصنوعی میتواند در همه امور دخالت کند. اهمیت داده را باید بدانیم و در همین چهارچوب مشارکت سیاسی هم اهمیت پیدا میکند زیرا گاهی گفته میشود که حکمرانی ما داده پایه و شواهد محور نیست بلکه بیشتر مبتنی بر سلایق و الگوهای کلانی است که با واقعیت میدانی و اجتماعی فاصله دارد و اهداف سیاستگذار در پایان محقق نمیشود زیرا مقصد، مقصد درستی اما موانع سبب عدم تحقق مقاصد صحیح میشود.
مبدعان هوش مصنوعی به تهیه سند اخلاقی اصرار دارند
مقوم دوم هوش مصنوعی حوزه زیرساخت های پردازشی است؛ کشور ما در این حوزه مبتنی بر واردات GPU است که البته در صنعت دفاعی اینگونه نیست؛ بسیاری از دانشگاهها شکایت دارند که GPU های آنها کم است. سومین مقوم نیز الگوریتم ها هستند که روز به روز پیشرفته تر میشوند مانند chatGPT که حتی متخصصان فنی را در شوک فروبرد. طبیعتا ما نیز در دادههای حوزه زبان فارسی و علوم انسانی و اسلامیباید کارهای جدی انجام دهیم البته افرادی مشغول چنین هدفی هستند.
امروزه در حوزه الگوریتم ها یک سوگیری وجود دارد که حتی طراحان این فناوری اذعان دارند باید سند اخلاق برای هوش مصنوعی نوشته شود و اقداماتی از این جنس انجام می دهند. مثلا همایش رهبران هوش مصنوعی در حضور نمایندگان ادیان اسلام، یهودیت ومسیحیت برگزار میشود که از شرکت های بزرگ این حوزه تعهد گرفته میشود تا فرایندی که در منطق ماشینهای محاسباتی وجود دارد مخل اخلاق و هویت جامعه از نظر آنها نباشد که این مهم در شبکههای اجتماعی خود را نشان می دهد.
استفاده مناسب از هوش مصنوعی میتواند به بهبود حکومت ها و حکمرانی کمک کند به این شکل که فساد کاهش پیدا کرده و خدمات عمومیتوسط حکومت ها و دولت ها به شکل بهتری ارائه شود؛ حفظ حقوق شهروندان و اطمینان از شفافیت در فرآیند تصمیم گیری را میتوان با چهارچوبی از الگوریتم تحلیل کرد. اگر به دنبال مشارکت فعال شهروندان در فرایند های تصمیم گیری هستیم میتوان از طریق ایجاد اطلاع رسانیها با استفاده از الگوریتم های هوش مصنوعی این امکان را فراهم کرد. تلقی ما از مسأله هوش مصنوعی، ما را به قوانین رهنمون خواهد کرد تا با انگاره صحیح از آن ضمن حفظ اصول خود، از مزایای آن بهره مند شویم.
بهینه سازی حکمرانی از طریق هوش مصنوعی منوط به پذیرش اجتماعی است
الگوریتم های هوش مصنوعی گاه الگوهای تبعیض آمیز را القا میکنند که حکومت ها باید اقدامات لازم را برای جلوگیری از تبعیض و انحراف را داشته باشند که کشور ما به زودی قانون جامع هوش مصنوعی خواهد داشت؛ پیش نویس آن آماده شده که در آن الزامات آمده است و یکی از این الزامات پیشگیری از الگوهای تبعیضی در الگوریتم ها است. اگر یک سامانه هوش مصنوعی بر اساس الگوهای تبعیضی در خصوص جنسیت یا اقلیت راه اندازی شود میتواند برای حکمرانی مشکل ایجاد کند. از این رو باید مواجهه صحیح داشته باشیم.
به عنوان نکته آخر باید عرض کنم در پذیرش اجتماعی هوش مصنوعی، باید یک گفتمان صحیح را دنبال کنیم زیرا کمک هوش مصنوعی در فرایند بهینه سازی حکمرانی منوط به این پذیرش است. پذیرش اجتماعی تابعی از اطمینان و شفافیت است که شهروندان حس کنند هوش مصنوعی نقش اساسی در تصمیم گیری دارد اما فرآیند آن شفاف نیست و سبب کم شدن مشارکت شهروندان و مخالفت های اجتماعی میشود.
در جمع بندی باید بگویم هر چه در سامانههای پیشنهاد دهنده و الگوریتم های پیش بینی و بهینه ساز به دنبال اصلاح نظام حکمرانی کشور باشیم با الگوی خودمان و نظام ارزشی و دادههای خود حتما به مشارکت سیاسی شهروندان کمک خواهد کرد چون این حکمرانی تابعی از مشارکتی است که با هوش مصنوعی برای شهروندان خود ایجاد کردیم و شفافیت و سهولت در نظام تصمیم گیری را برای آحاد جامعه ارمغان آوردیم. آنچه که به عنوان هوشمندسازی یا هوش مصنوعی انجام کی گیرد اگر بدون شفافیت و تبیین باشد طبیعتا محصول خوبی نخواهیم داشت. در دنیا در مقابل هوش مصنوعی تفسیرپذیر هوش مصنوعی توضیح پذیر رایج شده که از فرایند تصمیم گیری مخاطب خود را آگاه میکند و مثلا به قاضی میگوید که فرایند کشف حکم را از چه مسیری طی کرده است.
حاکمیت وظیفه سنگین تنظیم گری و تسهیل گری را دارد
حاکمیت وظیفه سنگینی دارد شاید روزانه این اخبار را بشنوید که کشوری یک ماژول یا فیک نیوزی را تحریم کرده و قانونی را تصویب کرده است از این رو ما نباید کاتولیک تر از پاپ بشویم زیرا خود کسانی که این فناوری را ابداع کرده اند به دنبال تنظیم گری هستند و نمیتوان اجازه داد هوش مصنوعی بدون محدودیت رشد کند. تسهیل گری بخشی از رگولاتوری است که حتما باید یک الگوی صحیح را دنبال کنیم؛ تلاش کردیم در ستاد هوش مصنوعی حوزه با یک الگوی حکمرانی مشارکتی با مجموعه کنشگرانی در این حوزه نظریه ای پایه را خلق کنیم و گفتمانی صحیح ارائه و کمک کنیم تا کشور برخوردار شود؛ نمیشود از نعمات آن خود را ممنوع کرد زیرا بسیاری از کشورها گامی جدی در زمینه هوش مصنوعی برداشته اند و امارات وزارتخانه برای آن تعریف کرده است. سهم سرمایه گذاری کشورها در هوش مصنوعی بسیار بالا است و روز به روز در حال افزایش است و نمیتوان از این عرصه غفلت کرد و در عین حال نباید به ابزار انگاری بسنده کرد بلکه در چارچوب حکمرانی اسلامی و مبانی دینی خود این فرایند را دنبال کنیم تا منجر به بهینه سازی نظام حکمرانی کشور شود.
در جمع بندی اینکه هوش مصنوعی را باید با تلقی صحیح دنبال کنیم و ذی نفعان و کنشگران حوزه سیاسی باید این تلقی را بپذیرند که این هوش میتواند جهتگیری افکار عمومی را تغییر دهد و با توجه به مواجهه تمدنی ایران با تمدن غرب باید خود را در مقابل توطئهها بهینه کنیم؛ بعد نرم این داستان نیز مهم است که باید به آحاد جامعه تسری پیدا کند. تجربه تلخ و اقدام دیرهنگام ما در خصوص فضای مجازی که فهم صحیح نداشتیم و اقدام به هنگام انجام نداده که با آسیب ها فراوانی مواجه شدیم. بنابراین فکر میکنیم هوش مصنوعی بسیار اثرگذار تر از فضای مجازی در اداره کشور است و باید الگوی حکمرانی مشارکتی را سرلوحه قرار دهیم و ما باید با مشارکت همه نهادهای اندیشه ورز بتوانیم تلقی خود را صحیح کنیم.
تأثیرگذاری هوش مصنوعی بر انتخابات چگونه است؟
سرکار خانم مهرابی کوشکی بعد از تشکر از دکتر قاسمی و سپاس از مسؤولین همایش «دین فرهنگ و رسانههای نوین» اظهار داشت: باید در حوزه مسأله شناسی هوش مصنوعی بحثی را مطرح کنم به این صورت که بشناسیم که هوش مصنوعی در عرصه انتخابات که یک عرصه مشارکت عمومی است چگونه تأثیرگذار است و در بحرانها و حوادث مختلف سیاسی کارآمد است یا خیر؟ فهم صحیح مسأله اولین گام است. در فرصت مطالعاتی که در پژوهشگده مطالعات فناوری و همکاری با دکتر اکبری پیش آمد سعی کردیم مسأله شناسی انجام بگیرد تا بدانیم محلی از موفقیت دارد یا خیر. در بحرانی که یک سال پیش با آن مواجه شدیم و یادمان هست که چگونه اسیر اطلاعات غلط شدیم به این صورت که افرادی واکنش نداشتند و یا افرادی در تله دشمن افتادند.
هوش مصنوعی از طریق چه مکانیسم هایی در انتخابات تأثیر میگذارد و پیامدهای آن کدام است یعنی وجه سلبی و مکانیسم های اثر شناختی و فردی آن را بررسی میکنیم و به فرصت های هوش مصنوعی نیز ناگاه خواهیم انداخت زیرا میتوان از ظرفیت های هوش مصنوعی در سوشال مدیا برای ایجاد یک انتخابات پرشکوه استفاده کرد.
هوش مصنوعی در فرایند زنجیره خبر حضور دارد
هوش مصنوعی تعاریف مختلفی دارند که من تعریف کوپلند را انتخاب کردم: «به سیستمهایی کامپیوتری اطلاق میشود که دارای فرآیندهای فکری مانند توانایی استدلال، کشف معنا، تعمیم یا یادگیری از تجربیات گذشته و دانش موجود هستند» یعنی دستگاه بتواند یاد بگیرد و روابط پنهان در دادهها را کشف کند و حتی دانش جدید را به صورت انتزاعی تولید کند. سطوح مختلفی در هوش مصنوعی وجود دارد: سطح هوش ضعیف، سطح عمومی و همراستا با هوش انسانی و ابرهوش که میتواند بالاتر از هوش انسانی عمل کرده و حتی میتواند خالق اثر هنری بشود. بحث امروز ما بیشتر بینابین هوش مصنوعی ضعیف و محدود و هوش مصنوعی عمومی است که وظایف معینی دارند اما تأثیرات بسیار عجیبی در رسانههای اجتماعی در عرصه فرهنگ و دین داشته که به وسعت هوش انسانی نیست اما تأثیرگذار هستند.
هوش مصنوعی که در رسانههای اجتماعی به کار می رود، در زنجیره تأمین رسانه (جمع آوری، تولید و توزیع) حضور دارد و بررسی میکند مثلا در عرصه خبر با استفاده از ابزارهایی میتواند در آرشیو جستجو کرده و یا در شناخت اخبار جعلی کمک کرده و حتی به صورت چندزبانه ترجمه کند. و سپس در تحلیل احساسات مخاطب و پیش بینی کمک کند. در تلویزیون و فیلم از آن استفاده میشود که این هوش مصنوعی به شکل شخصی ساز محتوا و تشخیص روندهای احساسی، تعدیل، نظارت بر محتوا، پیش بینی و کسب درآمد بروز پیدا میکند.
یکی از چالش های هوش مصنوعی کنشگری در عرصه رسانه است. جعبه سیاهی که در الگوریتم های هوش مصنوعی وجود دارد برای پژوهشگران علوم سیاسی و علوم اجتماعی شفاف نیست و باید رمزگشایی شود؛ البته بعضی از پروتکل های جدید نیز خودافشا هستند و فرایند تصمیم گیری خود را میگویند. سوگیریهایی که در هوش مصنوعی وجود دارد سبب افزایش شکاف های جنسیتی و هویتی میشود.
نبود استراتژی توسعه هوش مصنوعی در یک سازمان رسانه چالش مهمی است زیرا ممکن است مدیران تلقی صحیحی از کارکردهای مثبت هوش مصنوعی نداشته باشد و به خاطر اطلاعات تهدیدی، سهمیبرای توسعه هوش مصنوعی در رسانه اختصاص ندهند. مسأله امروز ما مشارکت سیاسی است و سؤال است که هوش مصنوعی چگونه میتواند از طریق توزیع اطلاعات نادرست مغرضانه و جعلی مشارکت را متأثر کند.
دستکاری کردن اراده مردم خلاف دموکراسی است
در این نظام، مردم هستند که نخبگان را تعیین میکنند که این تعیین کنندگی باید آگاهانه و آزاده باشند تا افراد بتوانند به صورت سنجیده و عقلانی تصمیم خود را بگیرند. آقای گودین در کتاب دموکراسی سنجیده بیان میکند: «درست است که رای دادن مهم ترین سازوکار مشروعیت بخشی به هر نظام سیاسی است اما شرط کافی برای دموکراتیک بودن یک نظام سیاسی نیست بلکه باید مشارکت مردم بازتاب داوریهای سنجیده آنها باشد نه واکنش های سرسری و غیرارادی» مسأله ما این است که نشان دهیم هوش مصنوعی چگونه میتواند کاری کند تا مشارکت کنندگان به افعال غیر ارادی و هیجانی روی بیاورند و یا خود هوش مصنوعی کاری کند که انتخابات متأثر از هوش مصنوعی باشد نه اراده انسان.
در مباحث نظری دو رویکرد در پاسخ به تأثیرگذاری فناوریهای جدید در حوزه شبکههای اجتماعی بر دموکراسی مطرح شده است. رویکرد اول کاملا خوش بینانه بود زیرا دانشمندان در ابتدا معتقد بودند که اینترنت یک فرصت اکولایزر است که میتواند اطلاعات خاص را از چنگال دولت های اقتدارگرا درآورده و در اختیار شهروندان قرار دهد تا آنها نیز از این فرصت برابر استفاده کنند و در تصمیم گیری هم اثرگذار باشند؛ در ابتدا تصور این بود که اینترنت میتواند در تحقق آرمانهای دموکراسی تأثیرگذار باشد اما این خوشبینی دوام نیاورد و در انتخابات 2016 و یا همه پرسی برگزیت در انگلستان این خوش بینیها دور ریخته شد و مشخص شد که شبکههای اجتماعی مبتنی بر فناوریهای جدید به گونه ای عمل کردند که مردم به ترامپ یا برگزیت رأی بدهند و از اینجا رویکردهای بدبینانه رشد کرد و مشخص شد که افکار عمومی از طریق شبکههای اجتماعی با یک دست پنهان بازی داده میشوند؛ پس از آن دموکراسیها نگران خود شدند به طوری که بعضی گفتند که با پایان دموکراسی روبرو هستیم زیرا الگوریتم های هوش مصنوعی به عاملیت اصلی در عرصه مردم سالاری تبدیل شدند که عاملیت انسانی را منفعل میکند.
آیا دموکراسی در نبرد با هوش مصنوعی جان سالم به در میبرد؟
سؤال پیش می آید که هوش مصنوعی چگونه از طریق اطلاعات نادرست بر دموکراسیها اثر میگذارد و یا امیدی هست که دموکراسی در نبرد با هوش مصنوعی جان سالم به در ببرد؟ ابتدا باید ماهیت اطلاعات نادرست مشخص شود زیرا این اطلاعات نادرست ممکن است با حقائق مغایرت داشته باشند اما مرجعی برای تکذیب آن نباشد و قصدی برای انحراف افکار عمومیپشت آن نیست. آن بخش از اطلاعات نادرستی که به قصد انحراف افکار عمومی یا بخشی از آن تولید میشود که اطلاعات کاذب هم نامیده میشوند و ظاهر اطلاعات درست را داشته که با قصد ایجاد گمراهی توزیع میشوند. بخشی از اطلاعات نیز درست بوده اما نابه جا در جامعه توزیع میشوند مانند طرح مسائل خصوصی یک نامزد انتخاباتی که بعد از 20 سال مثلا توزیع شده است تا یک فرد دیگر در انتخابات دیده شود. هوش مصنوعی با این اطلاعات میتواند افکار عمومی را جهت دهی کند. مکانیسم های اثر هوش مصنوعی از طریق مکانیسم های فنی است که میتواند در بحرانهای سیاسی و اجتماعی هم نقش افرین باشد.
اولین مکانیسم هوش مصنوعی هدفگیری پروفایل های خرد است یعنی شما به عنوان یک فعال سیاسی یا اجتماعی پروفایلی در اینستاگرام داشته و یک فعالیت های روزانه دارید که ردپایی دیجیتال برای خود ایجاد کرده اید که از روی این پروفایل میتوان روانشناسی شما را مورد مطالعه قرار داد که آیا مسأله ملیت یا دین برای شما اهمیت دارد یا خیر؟ و به لحاظ سیاسی هویت شما را تعیین میکند و سپس یک سری اطلاعات را در اختیار شما قرار می دهد که متناسب با این پروفایل فردی باشد از این رو برخی از اطلاعات خودبهخود سانسور میشود و شما از بسیاری از واقعیت ها بی اطلاع خواهید شد برای مثال وقتی شما دیندار هستید صفحه اینستاگرام شما پر از تصاویر حجاب و مداحی و سخنرانی میشود و از بخشی بزرگی از جامعه بی اطلاع میشوید.
هوش مصنوعی میتواند انسان را در غار اطلاعاتی قرار دهد
مکانیسم دیگر اتاق های پژواک هستند یعنی الگوریتم های پیکربندی فرد را در خوشههای همگن قرار می دهند که افراد را در میان طرفداران بایدن یا ترامپ قرار داده و وقتی در این خوشهها قرار میگیرد دیگر صداها را که میتواند در تصمیم گیری خردمندانه کمک کند، نمیشنود. حال چرا فرد در این حباب ها قرار میگیرد زیرا این فضا جذاب است چون دوستان او در کنارش هستند و ویژگیهای شناختی بشر با ادغام با این مباحث فناورانه سبب میشود انسان در یک غار اطلاعاتی قرار بگیرد و به شما غیر از این نامزد مطلوب سیاسی، اشخاص دیگری را نشان نمی دهد در حالی که ممکن است آن اشخاص بهتر باشند.
مکانیسم دیگر جعل عمیق است که مانند صدا و تصویر یک فرد ویدئوهای ساختگی ایجاد میکند و یا سایت های جعلی و صفحات ساختگی را ارائه می دهد همانطور که در اینستاگرام مشاهده میکنیم که یک صفحه شبیه به تسنیم BBC، CNN و... است که ممکن است مخاطبی بدون دقت این سایت و صفحه را دنبال کند و از این طریق اخبار جعلی را منتشر کند. شبکههای اجتماعی تصاویری را به صورت طنز از ترامپ منتشر کردند که بسیار شبیه واقعیت بود.
50 درصد ترافیک شبکههای اجتماعی توسط ربات ها است
ربات های سیاسی و اجتماعی مکانیسم دیگری هستند که سال گذشته تأثیر آنها را در حوادث پاییز دیدیم که مانند یک پروفایل انسان نما علیه یک فرد یا نامزد برای پروپاگاندا و وارونه نمایی فعالیت میکنند و کامنت، منشن و هشتگ های زیادی نیز تولید میکنند و سبب میشود مخاطب فکر میکند واقعیت جامعه همین است. تخمین می زنند که 50درصد ترافیک شبکههای اجتماعی توسط ربات ها است که عملکرد این ربات ها سبب میشود سلبریتی ما جرأت حرف زدن پیدا نکند مانند حادثه ای شبیه انفجار تروریستی در کرمان که افراد مشهوری از ترس همین ربات ها نتوانستند موضع گیری کنند.
کمپینهای دروغین مکانیسم دیگری هستند که توسط همین ربات ها شکل میگیرند و سبب میشوند که یک نامزد بیشتر دیده شود و نامزدی دیگر کمتر از آن به این صورت که پست و مطالب یکی از نامزدهای انتخاباتی با استفاده از ربات ها لایک و کامنت زیادی را به خود ببیند و مخاطب تصور کند که این لایک و کامنت واقعی بوده و این نامزد طرفداران زیادی دارد و در چشمان مردم محبوب جلوه کند.
تعدیل و حذف، مکانیسم دیگری است که در اینستاگرام در خصوص تصاویر سردار سلیمانی مثال عینی آن را میبینیم که توسط الگوریتم های هوش مصنوعی حذف میشوند یعنی به این الگوریتم ها برنامه داده شده تا حتی صفحه منتشر کننده چنین مطالبی حذف کنند.
مکانیسم دیگر نیز الگوریتم های توصیه گر هستند که در ایران تا کنون آن را ندیدم اما به رأی دهندگان توصیه میکند که به کدام نامزد یا کدام حزب رأی دهند؛ میتوان chatGPT را مثال زد که توصیه ای در خصوص یک فرد به رأی دهندگان ارائه کند. مباحث ما تا کنون مسأله شناسی، بر اساس فعالیت های علمی صورت گرفته در جوامع غربی بود زیرا در کشور ما تا کنون کار علمی صورت نگرفته است اما ردپاهای آن در جامعه ما دیده میشود که البته نیازمند مطالعه دقیق است.
اولین پیامد هوش مصنوعی شبکههای اجتماعی، مشروعیت زدایی از رسانههای رسمی است
هوش مصنوعی مد نظر ما، هوش مصنوعی شبکههای اجتماعی است که مسأله آن را توضیح دادیم و در ادامه نیز می خواهم به پیامدهای آن بپردازم.
اولین پیامد آن مشروعیت زدایی از رسانههای رسمی و تخریب خلاق رسانههای رسمی است؛ جریان تخریب از آغاز رشد اینترنت شروع شد و هوش مصنوعی به آن سرعت بخشید به این صورت که روند کمرنگ شدن استفاده از رسانههای ملی و رسمی سرعت پیدا کند تا استفاده از رسانههای رسمی جای خود را به رسانههای فردی بدهد و یا خود فرد، تولید کننده محتوای رسانه ای شود بدون اینکه تخصصی در این خصوص داشته باشد و صرفا با اطلاع از یک خبر جعلی آن را منتشر کنند. وقتی رسانههای فردی زیاد شوند قطعا ارزش ها و هنجارهای حرفه ای ارائه خبر رعایت نمیشود. وقتی فرد از شبکههای اجتماعی استفاده میکند دچار اعتیاد میشوند و حتی دچار اعتماد میشوند. بسیاری از ما ها به محض اینکه با یک مشکل پزشکی یا روانشناسی روبرو میشویم در فضای اینترنت جستجو میکنیم که سبب اعتیاد ما میشود.
در کتاب «اینترنت با مغزهای ما چه میکند» جمله ای آمده که نشان می دهد غربیها نیز نگران تأثیر هوش مصنوعی بر عادت شناختی جوامع هستند: «استفاده ما از اینترنت مستلزم تناقضات فراوانی که اما یکی از این تناقضات که عمیق ترین تأثیر بلندمدت بر تفکر میگذارد این است که اینترنت فقط به این منظور توجه ما را جلب میکند که بتواند بعدا حواس ما را پرت کند» یک اعتماد و اعتیاد ایجاد میکند که بعدا در شرایط بحرانی و خاص بتواند اثرگذاری خاص را داشته باشد و اثرگذاریهای دیگر آن این است که شبکههای اجتماعی از ماهیت یک رسانه خارج شده و تبدیل به یک نهاد اجتماعی شده اند و اجتماع ما کاملا شبکه ای شده و انتخاب نامزد انتخاباتی نیز مبتنی بر جستجو و عملکرد آن در حوزه رسانه شده است. آنچه که مهم است این است که رسانههای رسمی از اولین منبع خبری ما دور شدند و شبکههای اجتماعی اطلاعات را به صورت هدفمند ارائه می دهند.
دومین اثر آن افزایش شکاف های سیاسی و یا همان قطبیدگی سیاسی است که میتواند ایدئولوژیک باشد به این معنا که مخاطب خود را به لحاظ سیاسی متفاوت از دیگران بداند و حتی میتواند احساسات و عواطف فرد به شکل بیزاری و تنفر شکل بگیرد به این صورت که فرد بداند اصولگرا یا اصلاح طلب بداند که با گروه دیگر تفاوت دارد اما نسبت به آن بیزاری و تنفر نیز پیدا کند که در مکانیسم های مختلف این جریان تشدید میشود.
هوش مصنوعی میتواند نابرابریها را تشدید کند
سومین اثر نیز افزایش نفرت افکنی، انزوا و خشونت سیاسی است زیرا وقتی حباب های اطلاعاتی فرد را در یک غار قرار دادند، دوستان و حامیان خود را پیدا میکند و اطلاعات غلو شده را نسبت به جریان مقابل بازنشر میکند و این منشنها و بازنشر را یک فضای فکری و شناخت ملتهب ایجاد میکند که احساس نفرت را نیز همراه دارد به خصوص وقتی که این پیام ها، حاوی الفاظی علیه سیاستمداران و یا فعالان اجتماعی باشد. در نتیجه وقتی کسی زیر پیج فرد، نفرت افکنی را اعمال کند و علاوه بر تفکر سیاسی به شغل، جنسیت، پوشش و تحصیلات فرد توهین کند سبب ایجاد ترس جمعی میشود که فرد از حضور در شبکههای اجتماعی انصراف می دهد و اگر مثلا یک نامزد انتخاباتی زن باشد که این همه منشنهای غلط و تنفر انگیز دریافت کند ممکن است عطای کنش سیاسی را به لقایش ببخشد و فضا را ترک کند. این نفرت پراکنی ممکن است به فضای آفلاین هم کشیده شود که در یک سال گذشته دیدیم که رسانههایی خطاب به معترضین تجویز میکردند برخی افعال خشن را در تجمعات صورت دهند و یا فضای آموزشی را به جنگ اعصاب تبدیل کنند.
پیامد دیگر نیز افزایش نابرابری و تبعیض انتخاباتی است به این صورت که افراد برخوردار از ربات های هوش مصنوعی بیشتر دیده میشوند و در مقابل کسی که این امکان را ندارد و یا از لحاظ مالی توانایی لازم را ندارند عقب بمانند و احتمال انتخاب شدنش کمتر باشد. یا اینکه از فناوری هوش مصنوعی با هدف مداخله خارجی استفاده شود یعنی بازیگران بدخیم خارجی مانند اسرائیل از طرق مختلف افکار عمومی را در دست بگیرند و گاه تنها کاری که میتوانند بکنند با ایجاد یأس و بی اعتمادی به سیاستمداران حضور در کنار صندوق های رأی را به یک ننگ و عار تبدیل کنند و در زمینه مشارکت عمومی اختلال ایجاد کنند.
مقابله با تولید اطلاعات نادرست کار راحتی نیست
حال که فهمیدیم که هوش مصنوعی با چه مکانیسم های عمل میکند باید بدانیم مقابله با تولید اطلاعات نادرست کار راحتی نیست و چالش های گوناگونی وجود دارد. اول از آن زیرساخت فنی است زیرا وقتی پلتفرم خارجی در اختیار ما نیست نمیتوانیم آن را مجاب یا مجبور کنیم که یک کنش و یا رفتار خاص را نداشته باشد و یا برای شناسایی ربات های اجتماعی را که جامعه را به هم می ریزد بستر فنی وجود نداشته که در این اینگونه موقعیت ها نخبگان سیاسی و تصمیم ساز ما دانش لازم را ندارند و دست خود را بر روی فیلتر و سانسور شبکههای اجتماعی میگذارند. به فرض اینکه قابلیت های فنی وجود داشته باشد، کشف گفتارهای نفرت انگیز معضلات زیادی دارد زیرا برخی صورت های اخبار، نفرت انگیز نیست اما در لحن خود چنین تنفری دارد؛ گاه ممکن است از منظر یک هوش مصنوعی یک خبر فیک ارائه شود در حالی که واقعیت دارد و یک خبر درست ارائه شود که واقعیت نداشته باشد.
مهم ترین معضل، اصلاح اطلاعات نادرست است زیرا غیر از مسدودسازی پلتفرم ها، گزینه دیگر، جنگیدن با توهمات القا شده است به این صورت که اگر یک خبر فیک منتشر شده، ما خبر درست را از طرق مختلف به مردم برسانیم در حالی که تحقیقات نشان داده است این مدل استراتژی چندان جواب گو نیست؛ وقتی به صورت دروغین گفته میشود که فرزند فلان کاندیدای انتخابات رانت خوار بوده و ما بخواهیم از طریق روشنگری با استفاده از اسناد این خبر کذب را رد کنیم مردم باور نمیکنند چراکه طبق مکانیز اثر دنباله دار، اثر خبر نادرست طولانی است. مکانیسم دیگر اثر معکوس جهان بینی است که اگر فرد یک خبر درست را بر خلاف ایدئولوژی سیاسی یا دینی دریافت کند نمیپذیرد از این رو کسی که نسبت به نظام سیاسی زاویه دارد وقتی اصلاح خبر را میشنود باور نمیکند. همچنین افرادی که سیاسی تر هستند و آگاهیهای زیادی دارند وقتی با خبر صحیح مواجه میشوند، نسبت به خبر درست در مقایسه با زن خانه دار مقاومت بیشتری نشان می دهند.
ضعف تفکر تحلیلی نیز یک معضل است زیرا به ما آموزش داده نشده که چگونه با یک خبر به صورت تحلیلی و سنجیده مواجه شویم و متأسفانه تفکر انتقادی و تحلیلی ما قوی نیست و متناسب با باورها و اندیشههای اولیه خودمان نسبت به آن خبر واکنش نشان می دهیم بدون اینکه سراغ صحت سنجی آن برویم.
افراد وقتی خبری را دریافت میکنند حوصله ندارند که نسبت به آن در یک حالت گیجی قرار بگیرند و اگر مخالف با جهان بینی باشد رد و اگر موافق باشد فورا قبول میکنند. مقاومت روانشناختی سبب میشود افراد دوست نداشته باشند که همیشه در معرض اطلاعات درست قرار بگیرند. همچنین ممکن است اطلاعات نادرست از مکانیسم های عاطفی و احساسی استفاده کند که اصلاح این مدل اطلاعات بسیار سخت تر خواهد بود.
باید از مزایای هوش مصنوعی استفاده کنیم
پیشنهادات سیاسی بحث آخر من است: اول اینکه از مزایای فناوری هوش مصنوعی استفاده کنیم و از آن شناخت داشته باشیم؛ هوش مصنوعی قطعا مزایایی دارد که میتواند در مدیریت افکار عمومی خصوصا در زمان انتخابات کمک کار باشد و همچنین سبب شود که رسانه ما یک رسانه اثرگذار تر باشد. از این الگوریتم ها میتوان استفاده کرد که در میان انبوه اخبار گرایش مردم به کدام خبر است و هوش مصنوعی میتواند به طور خودکار برای بررسی حقائق اخبار در اختیار مردم و رسانهها قرار بگیرد به این صورت که فرد پس از مواجهه با خبر برای صحت آن از هوش مصنوعی استفاده کند. در حین انتخابات میتوان از هوش مصنوعی برای سنجش ذائقه عمومیبهره گرفت و سنجید که افکار عمومی در کدام بخش نسبت به نظام سیاسی سوگیری داشته و یا به کدام بخش اعتماد بیشتری دارند و از همین الگوریتم ها نیز میتوان برای تشویق به مشارکت سیاسی استفاده کرد. حتی میتوانیم شعارهای جذاب و اقناع کننده را با الگوریتم های تحلیل محتوا پیدا کنیم تا بدانیم جوانها به کدام شعارها توجه میکنند.
از تحلیل شبکههای اجتماعی میتوانیم گرایش مردم را پیش بینی کنیم که اگر نتیجه برعکس شد علت را پس از آن بررسی کنیم
مهم ترین راه حل تقویت قوای شناختی است زیرا چیزی که ما را بیمه میکند افزایش مهارت های شناختی در رسانههای دیجیتال است که باید از مهد کودک تا دانشگاه مصرف کنندگان شبکههای اجتماعی را آموزش دهیم که نسبت به محتواها رفتارهای هیجانی و غیرارادی نداشته باشند ضمن اینکه این عرصه بسیار پرمسأله و ناشناخته است و باید ترکیبی بین رشته ای از متخصصین حوزه رسانه، علوم سیاسی، علوم اجتماعی و علوم شناختی و روانشاسی اجتماعی و دوستان حوزه محاسباتی ایجاد شود که که جامعه را مواقع انتخابات بتوانند مدیریت کنند و قطعا توسعه فنی هوش مصنوعی در حوزه رسانه، فرهنگ و دین و جامعه پیشنهاد اختصاصی پژوهش من است.