تعصب و عدالت در الگوریتم‌های هوش مصنوعی

  1. خانه
  2. سیاست‌گذاری
  3. جزئیات مقاله
فریلنسرها
تعصب و عدالت در الگوریتم‌های هوش مصنوعی

در چند سال اخیر و به‌خصوص پس از ظهور چت جی‌بی‌تی و ابزارهای رایگان هوش مصنوعی، آشنایی مردم با این پدیده بیشتر شد. آن‌ها در بسیاری از موارد، از این ابزارها برای سرگرمی و گذران وقت خود استفاده کرده‌اند و در بهترین حالت به‌عنوان دستیار تولیدمحتوا از او کمک گرفته یا سوالات تحقیقاتی خود را از او پرسیدند. آشنایی عموم مردم با هوش مصنوعی در همین حد است اما اگر بخواهیم یک لایه عمیق‌تر شویم، می‌بینیم که چالش‌های فراوانی در این حوزه وجود دارد که فعلا چاره‌ای برایش اندیشیده نشده و یا با توجه به پیشرفت‌های علمی حال‌حاضر، فعلا غیرقابل‌حل به‌نظر می‌رسد.

این چالش‌ها صرفا فنی و فناورانه نیستند و در برخی موارد بعد فلسفی و اخلاقی به‌خود می‌گیرند. در این مقاله کوتاه قرار است که درباره یکی از مهم‌ترین چالش‌های موجود در این حوزه صحبت کنیم و آن چیزی نیست جز عدم توانایی الگوریتم‌های هوش مصنوعی در تشخیص درست و غلط‌بودن هر داده‌ای که به او داده می‌شود. بهتر است فراموش نکنیم که هوش مصنوعی صرفا ماشینی است که الگوهای موجود در داده‌ها را کشف می‌کند و اگر شما در دادن داده‌های آموزشی به آن دقت کافی را نداشته باشید، به احتمال زیاد، الگوریتم‌هایش صرفا باورهای کنونی‌تان را تقویت می‌کند.

هوش مصنوعی این قابلیت را دارد که از طریق بازتاب پیش‌فرض‌ها، منافع شخصی/گروهی و جهان‌بینی توسعه‌دهندگانش، به وضعیت کنونی که در هر سیستمی تبعیض‌آمیز است، دامن بزند. این مساله‌ای در سطح کارشناسی و فنی نیست که مهندسان و برنامه‌نویسان نگران آن باشند بلکه یک چالش در سطح مدیریت رده‌بالا و حتی سیاست‌گذاری است که عدم توجه به آن، در طولانی‌مدت ممکن است هزینه‌های فرهنگی به بار بیاورد.

علاوه‌بر این، الگوریتم‌های ماشین‌لرنینگ، که در حال حاضر مورداستفاده‌ترین بخش هوش مصنوعی هستند، به‌دنبال کشف الگو در مثال‌های دنیای واقعی (training data) می‌باشند که این مساله مشکلاتی را پدید می‌آورد:

  • محدودبودن داده‌های آموزشی به یک پیش‌زمینه فرهنگی
  • مشمول نشدن سهوی گروهی خاص در داده‌های آموزشی

به‌عبارت دیگر، مشکل اینجا است که مجموعه داده‌های آموزشی دربرگیرنده دقیقا تمامی عدم برابری‌ها و تعصب‌های دنیای واقعی است و الگوریتم‌های ماشین‌لرنینگ قادر به تشخیص آن‌ها نبوده و ممکن است که صرفا شرایط را بدتر کنند.

مثال‌های زیادی وجود دارد که هوش مصنوعی تعصب و عدم برابری در دنیای واقعی را شدیدتر کرده و نتیجه‌اش حتی کاملا سهوی نژادپرستانه شده است. مشهورترین مثال از این وضعیت مربوط به سیستمی است که طراحی شده بود تا عکس‌های مات و بی‌کیفیت را اصلاح کرده و یک عکس تمیز و شفاف تحویل داد. خروجی عجیبی که مشاهده شد این بود که در هر دور از پیاده‌کردن الگوریتم مربوطه، چهره‌های افراد سیاه‌پوست ذره‌ذره سفید می‌شدند. این اتفاق در زمان ریاست جمهوری باراک اوباما اتفاق افتاد و سروصدای زیادی کرد.

خطای هوش مصنوعی و نقش آن در تثبیت دیدگاه‌های از پیش تعیین‌شده

حال این یک مثال ساده است که اثرات فیزیکی آن واضح بوده و به‌راحتی قابل تشخیص است. اثری که هوش مصنوعی در تثبیت مسائل عمیق‌تر فکری و ذهنی می‌تواند داشته باشد غیرقابل‌تشخیص‌تر بوده و منجر به تثبیت و تایید باورهای کنونی انسان‌ها می‌شود.

راه‌حلی که پژوهشگران کنونی این حوزه ارائه داده‌اند درواقع تلاش درجهت فرموله‌کردن و کدگذاری fairness با استفاده از مفهومی به اسم proxy variables که درواقع متغیرهایی هستند که مقدارشان با دیدگاه گروهی از مردم که نظراتشان اغلب نادیده گرفته شده هم‌بستگی بالایی دارند.

تلاش‌ها درجهت فرموله‌کردنfairness اغلب منجر به اقرار به موازنه موجود میان صداها و نظرات مختلف در جامعه گردیده است اما مشکل هم‌چنان پابرجا مانده و صدای غالب اثرگذاری خود را حفظ می‌کند.

مساله دیگری که وجود دارد این است که صرفا تلاش در جهت فرموله‌کردن fairness باعث می‌شود که  تغییر سخت‌تر شده و اجازه ظهور به سیستم‌های نوآوری که شرایط کنونی را به چالش می‌کشد، داده نشود.

پشتیبان

زمان عضویت نویسنده: 6 تیر, 1401

پاسخ شما به دیدگاه

دلیل باز پرداخت