رصد و آینده پژوهی

  1. خانه
  2. آینده پژوهی
  3. جزئیات مقاله
فریلنسرها
رصد و آینده پژوهی

1- خلاصه بخش قبل

آینده هوش مصنوعی دارای دو چشم‌انداز بسیار متفاوت است: یکی اتوپیایی که در آن هوش مصنوعی فوق‌هوشمند مشکلات بزرگ بشریت را حل می‌کند، از پایداری زیست‌محیطی گرفته تا پیشرفت‌های پزشکی؛ دیگری دیستوپیایی که در آن هوش مصنوعی تحت کنترل افراد قدرتمند و ظالم قرار می‌گیرد، منجر به تهدیدات برای آزادی فردی و سلامت انسان می‌شود. این دیدگاه‌های افراطی ممکن است توجه به راه‌های میانه و پیچیده‌تر را کمرنگ کند. پیش‌بینی دقیق آینده هوش مصنوعی به دلیل گستردگی اثرات و تأثیرپذیری آن از شرایط متعدد سیاسی و اجتماعی-اقتصادی دشوار است.

2- بخش دوم

باید پذیرفت ماهیت هوش مصنوعی و محیط پیچیده سیاسی پیش‌بینی‌ها برای آینده این فناوری را دشوار می‌کند. پیش‌بینی توسعه فناوری هوش مصنوعی همه‌منظوره، دشوارتر از پیش‌بینی تغییرات فناوری‌هایی خاص با برنامه‌های خاص، مانند فناوری واقعیت مجازی یا هواپیماهای بی‌سرنشین است. ماهیت کلی هوش مصنوعی و کاربردهای گسترده آن، عدم قطعیت‌های متعددی را ایجاد می‌کند و تصویر ما را از آینده پیچیده می‌کند. در این بخش برای پیش‌بینی آینده هوش مصنوعی، دو عدم قطعیت[1] به‌شرح زیر در نظر گرفته می‌شود (یکی از روش‌های سناریوسازی در آینده‌پژوهی، تصویرسازی عدم قطعیت‌ها و ایجاد ماتریس سناریوها است):

  • مقررات محتاطانه در مورد هوش مصنوعی یا تمرکز بر نوآوری: داده‌ها رکن اصلی توسعه هوش مصنوعی هستند و باید در دسترس باشند و با جزئیات کافی ضبط شده باشند؛ همچنین، باید قابل استفاده باشند، به‌طوری‌که اجازه داده شود که برای آموزش برنامه‌های هوش مصنوعی از آن‌ها استفاده شود. این امر مقررات حفظ حریم خصوصی داده‌ها را در خط مقدم همه ابهامات تعیین‌کننده آینده هوش مصنوعی قرار می دهد. برای مثال، بسته قانونی هوش مصنوعی دراتحادیه اروپا (GDPR) به‌عنوان استاندارد طلایی در حفاظت از حریم خصوصی افراد و همچنین حفاظت از منافع افراد در هنگام تصمیم‌گیری خودکار مبتنی بر هوش مصنوعی در نظر گرفته می‌شود. با این حال، هنوز زود است که درکی کامل از نحوه تفسیر و اجرای این قوانین داشته باشیم. آینده، بیش از رویا و بلندپروازی‌ها، به میزان فعال بودن تنظیم‌گران و مقررات بستگی دارد.
  • فشار فعال دولت یا هوش مصنوعی مبتنی بر صنعت: موضعی که دولت‌ها در قبال هر فناوری در حال توسعه اتخاذ می‌کنند، اثری بسیار قوی بر آثار نهایی آن فناوری دارد. در حالی که تنظیم‌گران مرزهای گسترده‌تری را برای توسعه و کاربرد هوش مصنوعی ازسوی کسب‌وکارها تعیین می‌کنند، دولت‌ها وظیفه‌ای سنگین و نقشی اثرگذار خواهند داشت و ابزارهای گسترده‌تری برای اثرگذاری بر آینده هوش مصنوعی در اختیار دارند. دولت‌های ملی و همچنین اتحادیه اروپا می‌توانند زمینه‌های تمرکز را برای هوش مصنوعی تعیین کنند؛ همچون: چه حوزه‌هایی را تشویق کنند؛ چگونه تحقیق و نوآوری را پیش ببرند؛ بر پذیرش کاربر و توسعه استعدادها اثر بگذارند. سطح مشارکت آنها می‌تواند بسیار متفاوت باشد؛ از ساختاری کاملاً آزاد که در آن دولت‌ها کنترلی اندک دارند یا اصلاً کنترل ندارند، تا مشارکت فعال با راهبرد‌های ملی، برنامه‌های تشویقی و سرمایه‌گذاری‌های مستقیم. دولت‌های متعددی در حال شکل‌دهی راهبردهای ملی هوش مصنوعی هستند. این راهبرد‌ها معمولاً شامل تعهد بلندمدت به سرمایه‌گذاری در هوش مصنوعی هستند. اغلب این طرح‌ها بسیار جدید هستند و نمی‌توان گفت که چه تأثیری خواهند داشت؛ از این‌رو، نقش دولت را به‌عنوان یک عدم قطعیت کلیدی می‌توانیم در نظر بگیریم. دولت‌ها می‌توانند مقدار پولی که برای هوش مصنوعی خرج می‌شود را افزایش دهند و می‌توانند نقشی فعال در تعیین محل سرمایه‌گذاری داشته باشند؛ همچنین، می‌توانند با توسعه یا محدود کردن حوزه نفوذ شرکت‌های بزرگ فناوری، اثرگذار باشند.

با توجّه به دو عدم قطعیت بیان‌شده، چهار سناریو شکل می‌گیرد. نقاط تمرکز سناریوها پاسخ به چنین سؤالاتی است: هوش مصنوعی چگونه توسعه می‌یابد؛ تمرکز دولت‌ها و تنظیم‌گران در تنظیم قوانین هوش مصنوعی بر چه ابعادی چیست؛ ساختار بازار هوش مصنوعی با توجه به قوانین چگونه خواهد بود؛ تأثیر کلی استفاده از هوش مصنوعی بر اقتصاد، صنایع و مصرف‌کنندگان چه خواهد بود. همانطور که ویلیام گیبسون، نویسنده شهیر داستان‌های علمی‌تخیلی می‌گوید: «آینده از قبل اینجاست، فقط به طور یکنواخت توزیع نشده است». به عبارتی، بیشتر این سناریوها از قبل به شکلی در جایی از جهان وجود دارند.

در ادامه، سناریوهای چهارگانه آینده هوش مصنوعی را شرح می‌دهیم.

  1. آماده فرصت‌طلبی (هوش مصنوعی پایدار): در این سناریو، دولت موضع محافظه‌کارانه خود را در مورد مقررات هوش مصنوعی حفظ خواهد کرد. قوانین حفظ حریم خصوصی داده‌ها به طور دقیق تفسیر می‌شوند و حریم خصوصی افراد را در مرکز همه بحث‌ها حفظ می‌کنند؛ حتی به قیمت تأخیر در نوآوری. بند‌های بیشتری به مقررات اضافه می‌شود؛ زیرا شرکت‌هایی که بیش از حد از دستورالعمل‌ها دور می‌شوند، جریمه‌های سنگینی خواهند داشت و هزینه‌های مربوط به هوش مصنوعی را افزایش می‌دهند. مقررات محتاطانه به سکو‌های گردآوری داده‌ها محدود نمی‌شود و دستورالعمل‌های خاصی در رابطه با الگوریتم‌ها نیز ظاهر می‌شوند. در واقع، دستورالعمل‌ها فقط به موادّ کلی برای حفظ حقوق فردی محدود نمی‌شوند و با جزئیات بیشتری بر تصمیم‌گیری‌های هوش مصنوعی تمرکز خواهند کرد و بررسی‌های دستی برای بسیاری از موارد اجباری خواهند بود. این امر، نوآوری را به طور کامل محدود نمی‌کند؛ زیرا شرکت‌ها به توسعه قابلیت‌های فنی ادامه می‌دهند که می‌تواند برای پردازش مسئولانه داده‌ها مورد استفاده قرار گیرد و منجر به سناریوی پایدارتر با هوش مصنوعی مسئول در خط مقدم شود. همزمان با فشار دولت در ایجاد مقررات محتاطانه و افزایش هزینه‌های توسعه و انطباق برای شرکت‌ها، برخی از ظرفیت‌های رشد هوش مصنوعی محدود می‌شود. با این حال، در این سناریو، مقررات محتاطانه با نقش فعال دولت ترکیب می‌شود تا هوش مصنوعی را تحت فشار قرار دهد که تأثیر مثبت مشخصی خواهد داشت. در این سناریو دولت در ارائه انگیزه‌های لازم برای رشد هوش مصنوعی به فعالیت خود ادامه خواهد داد.
  2. به دنبال جایزه (هوش مصنوعی رشدمحور): نقش دولت در این سناریو بسیار فعال در توسعه و پذیرش هوش مصنوعی خواهد بود. این امر شامل تدوین سیاست‌های ملی هوش مصنوعی، راه‌اندازی نهادهای اجرایی با مسئولیت‌های خاص برای پیشبرد هوش مصنوعی، توسعه مهارت‌های لازم با همکاری دانشگاه‌ها، حمایت از تحقیقات و سرمایه‌گذاری فعال در توسعه هوش مصنوعی است. سرمایه‌گذاری در فناوری‌های افزایش حریم خصوصی برای اطمینان از مزیت رقابتی انجام می‌شود و همراه با رویکردی انعطاف‌پذیر در مقررات است. علاوه بر نقش فعال دولت در تحریک هوش مصنوعی، این سناریو رویکردی انعطاف‌پذیر از تنظیم‌گر‌ها در زمینه هوش مصنوعی را در نظر می‌گیرد: مقررات تسهیل‌کننده در صورت لزوم تا به نوآوران اجازه آزمایش و هدایت سرمایه‌گذاری‌ها را در جهت درست بدهد. این محیط نظارتی، شرکت‌ها را تشویق می‌کند که حتی در صورت وجود تردید به نوآوری بپردازند که در شرایطی که مقررات فاقد جزئیات خاص هستند، وضعیت غیرمعمولی نیست. مقررات آزاد و باز می‌تواند اعتماد مصرف‌کننده را مخدوش سازد، زیرا حفظ حریم خصوصی داده‌ها در کنار بسیاری از موارد دیگر، مانند الگوریتم‌های تبعیض‌آمیز، همچنان نگرانی مهمی خواهد بود. انتظار می‌رود که با تلاش‌های مجدد دولت و شرکت‌های بزرگ فناوری برای همکاری با یکدیگر در راستای حفظ اعتماد مصرف‌کننده با توسعه بهترین شیوه‌ها در استفاده از داده‌ها، این مشکل برطرف شود.
  1. اقدام متعادل (هوش مصنوعی محتاط): با رویکرد نظارتی محتاطانه در این سناریو، تنظیم‌گران به اعمال دیدگاه نظارتی محتاطانه خود در مورد هوش مصنوعی، از استفاده از داده‌ها و حریم خصوصی گرفته تا الگوریتم‌ها و تأثیر آنها، ادامه می‌دهند. همانطور که آموخته‌های حاصل از توسعه و استفاده از هوش مصنوعی افزایش می‌یابد، تنظیم‌گران به طور مستمر در استانداردها تجدیدنظر می‌کنند و مصرف‌کنندگان را در مرکز توجه نگه می‌دارند. در حالی که توسعه هوش مصنوعی به بازار واگذار می‌شود، همچنان سهم قابل توجهی در مدیریت سیاست‌های هوش مصنوعی ازسوی دولت‌ها وجود خواهد داشت. در این سناریو، دولت‌ها بازار هوش مصنوعی مبتنی بر صنعت را تشویق می‌کنند و به طور فعال به توسعه هوش مصنوعی نمی‌پردازند. این می‌تواند به معنای سرمایه‌گذاری اندک دولت در هوش مصنوعی باشد. ازسویی، شرکت‌ها با هزینه‌های انطباق بالایی سر و کار دارند. تأثیر این دو موقعیت (سرمایه‌گذاری اندک دولتی و هزینه انطباق بالای شرکت‌ها) مهم خواهد بود. محدودیت‌های نظارتی بر روی داده‌ها و الگوریتم‌ها تقریباً به طور مستقیم بر توسعه و امکان‌سنجی مقیاس‌پذیری برنامه‌های کاربردی جدید تأثیر می‌گذارد؛ زیرا، شرکت‌های فناوری، استارتاپ‌ها و متصدیان را مجبور می‌کند به دقت به بررسی حوزه‌هایی بپردازند که در آن سرمایه‌گذاری می‌کنند. البته این لزوماً یک مانع توسعه هوش مصنوعی توسط بخش خصوصی نیست، اما به معنای فقدان مشوق می‌تواند باشد. بررسی دقیق حوزه‌های سرمایه‌گذاری به دلیل فقدان مشوق‌های دولت و مراحل تحقیق و توسعه بالقوه گران‌قیمت و مقررات سخت‌گیرانه به معنای هزینه‌های بالای انطباق، تعیین‌کننده خواهد بود. هر حوزه کاربردی جدید هوش مصنوعی ابتدا باید مورد ارزیابی قرار گیرد تا اطمینان حاصل شود که هیچ مشکل احتمالی استفاده از داده در آن وجود ندارد. هر برنامه کاربردی در مسیر تجاری‌سازی ابتدا باید برای سوگیری‌های احتمالی آزمایش شود تا اطمینان حاصل شود که نه‌تنها با مقررات فعلی، بلکه با مقررات احتمالی آینده نیز مشکلی در انطباق وجود ندارد.
  2. زودتر شکست بخور، زودتر موفق شو (هوش مصنوعی تجربی): با تمرکز بر نوآوری در این سناریو، تنظیم‌گران ملی دیدگاه مواجهه با نوآوری در هوش مصنوعی خواهند داشت. در اینجا مقررات متمرکز بر تشویق نوآوری خواهد بود، و تنظیم‌گران جزئیات این مشوق‌های مربوط به برنامه‌های کاربردی هوش مصنوعی در حال توسعه را بررسی می‌کنند. تمرکز بر نوآوری می‌تواند شامل معافیت‌های بیشتری برای استفاده از داده‌ها باشد که به شرکت‌ها اجازه می‌دهد با سرعت بالایی به طراحی و ارائه راهکارهای نوآور بپردازند. با توجه به اینکه قوانین داده‌ها و حریم خصوصی در این سناریو ذاتاً ضعیف هستند، اعتماد مصرف‌کنندگان به هوش مصنوعی آسیب خواهد دید. با این حال، محیط نظارتی آزاد لزوماً به معنای حمایت ضعیف از مصرف‌کننده نیست. با توجه به تقاضای مصرف‌کننده برای حفاظت از داده‌ها، شرکت‌ها، به‌ویژه شرکت‌های فناوری بزرگ می‌توانند مرزهای خودتنظیمی را به‌عنوان یک متمایزکننده و ابزاری برای به حداقل رساندن تهدیدها جهت افزایش قدرت بازار خود انجام دهند. در این سناریو، توسعه هوش مصنوعی ازسوی بازار هدایت می‌شود. در محور دیگر، دولت‌ها مشوق استفاده از هوش مصنوعی در صنعت هستند تا بازار توسعه یابد. بر این اساس، ممکن است دولت‌ها صرفا رشد هوش مصنوعی را با معرفی مقررات خاصی محدود نکنند، اما  مشوق خاصی نیز برای توسعه ارائه نکنند. به طور کلی موضع اکثر دولت‌ها در این سناریو، تضمین حداقل مداخله خواهد بود. استارتاپ‌ها و همچنین شرکت‌های بزرگ فناوری، فناوری یا محصول برگزیده را انتخاب می‌کنند و توسعه هوش مصنوعی را پیش خواهند برد. در همین راستا، برنامه‌هایی که بیشترین بازده سرمایه‌گذاری را برای سهامداران دارند، مواردی هستند که در اولویت قرار می‌گیرند. با توجه به اینکه هوش مصنوعی هنوز در مراحل اولیه توسعه است، بر اساس این سناریو ممکن است سرمایه‌گذاری‌های کلان به سوی برنامه‌هایی روانه شوند که هنوز امکان‌سنجی تجاری یا حتی فنی را انجام نداده‌اند؛ زیرا شرکت‌ها در زمینه‌های مختلف آزمایش و بررسی می‌کنند. در نهایت، بازار تعیین خواهد کرد که کدام برنامه‌ها از بیشترین ظرفیت برخوردارند؛ در حالی که توسعه سایر موارد بی توجه به مزایای اجتماعی آنها متوقف می‌شود.

افزون بر سناریوهای بیان‌شده، پژوهشگران و مؤسّسه‌های تحلیلی و مشاوره‌ای در سراسر جهان به تصویرسازی از آینده هوش مصنوعی به شیوه‌های گوناگون پرداخته‌اند. تحلیل‌ها و دسته‌بندی‌های متفاوتی از آینده هوش مصنوعی ارائه شده است؛ هرچند، برخی از روندها و پیشران‌های آینده در بسیاری از پژوهش‌ها و گزارش‌ها حضور دارند و مورد اتّفاق تحلیل‌گران هستند. در ادامه از این فصل، مهمترین یافته‌های دیدبانی از تحلیل‌ها و آینده‌پژوهی‌ها درباره هوش مصنوعی ارائه می‌شوند.

به نقل از: مرکز رصد و آینده پژوهی پردیس نوآوری و فناوری بنیان


[1] Uncertainty

پشتیبان

زمان عضویت نویسنده: 6 تیر, 1401

پاسخ شما به دیدگاه

دلیل باز پرداخت