روندهای آینده هوش مصنوعی (بخش دوم)
1- خلاصه بخش قبل
آینده هوش مصنوعی دارای دو چشمانداز بسیار متفاوت است: یکی اتوپیایی که در آن هوش مصنوعی فوقهوشمند مشکلات بزرگ بشریت را حل میکند، از پایداری زیستمحیطی گرفته تا پیشرفتهای پزشکی؛ دیگری دیستوپیایی که در آن هوش مصنوعی تحت کنترل افراد قدرتمند و ظالم قرار میگیرد، منجر به تهدیدات برای آزادی فردی و سلامت انسان میشود. این دیدگاههای افراطی ممکن است توجه به راههای میانه و پیچیدهتر را کمرنگ کند. پیشبینی دقیق آینده هوش مصنوعی به دلیل گستردگی اثرات و تأثیرپذیری آن از شرایط متعدد سیاسی و اجتماعی-اقتصادی دشوار است.
2- بخش دوم
باید پذیرفت ماهیت هوش مصنوعی و محیط پیچیده سیاسی پیشبینیها برای آینده این فناوری را دشوار میکند. پیشبینی توسعه فناوری هوش مصنوعی همهمنظوره، دشوارتر از پیشبینی تغییرات فناوریهایی خاص با برنامههای خاص، مانند فناوری واقعیت مجازی یا هواپیماهای بیسرنشین است. ماهیت کلی هوش مصنوعی و کاربردهای گسترده آن، عدم قطعیتهای متعددی را ایجاد میکند و تصویر ما را از آینده پیچیده میکند. در این بخش برای پیشبینی آینده هوش مصنوعی، دو عدم قطعیت[1] بهشرح زیر در نظر گرفته میشود (یکی از روشهای سناریوسازی در آیندهپژوهی، تصویرسازی عدم قطعیتها و ایجاد ماتریس سناریوها است):
- مقررات محتاطانه در مورد هوش مصنوعی یا تمرکز بر نوآوری: دادهها رکن اصلی توسعه هوش مصنوعی هستند و باید در دسترس باشند و با جزئیات کافی ضبط شده باشند؛ همچنین، باید قابل استفاده باشند، بهطوریکه اجازه داده شود که برای آموزش برنامههای هوش مصنوعی از آنها استفاده شود. این امر مقررات حفظ حریم خصوصی دادهها را در خط مقدم همه ابهامات تعیینکننده آینده هوش مصنوعی قرار می دهد. برای مثال، بسته قانونی هوش مصنوعی دراتحادیه اروپا (GDPR) بهعنوان استاندارد طلایی در حفاظت از حریم خصوصی افراد و همچنین حفاظت از منافع افراد در هنگام تصمیمگیری خودکار مبتنی بر هوش مصنوعی در نظر گرفته میشود. با این حال، هنوز زود است که درکی کامل از نحوه تفسیر و اجرای این قوانین داشته باشیم. آینده، بیش از رویا و بلندپروازیها، به میزان فعال بودن تنظیمگران و مقررات بستگی دارد.
- فشار فعال دولت یا هوش مصنوعی مبتنی بر صنعت: موضعی که دولتها در قبال هر فناوری در حال توسعه اتخاذ میکنند، اثری بسیار قوی بر آثار نهایی آن فناوری دارد. در حالی که تنظیمگران مرزهای گستردهتری را برای توسعه و کاربرد هوش مصنوعی ازسوی کسبوکارها تعیین میکنند، دولتها وظیفهای سنگین و نقشی اثرگذار خواهند داشت و ابزارهای گستردهتری برای اثرگذاری بر آینده هوش مصنوعی در اختیار دارند. دولتهای ملی و همچنین اتحادیه اروپا میتوانند زمینههای تمرکز را برای هوش مصنوعی تعیین کنند؛ همچون: چه حوزههایی را تشویق کنند؛ چگونه تحقیق و نوآوری را پیش ببرند؛ بر پذیرش کاربر و توسعه استعدادها اثر بگذارند. سطح مشارکت آنها میتواند بسیار متفاوت باشد؛ از ساختاری کاملاً آزاد که در آن دولتها کنترلی اندک دارند یا اصلاً کنترل ندارند، تا مشارکت فعال با راهبردهای ملی، برنامههای تشویقی و سرمایهگذاریهای مستقیم. دولتهای متعددی در حال شکلدهی راهبردهای ملی هوش مصنوعی هستند. این راهبردها معمولاً شامل تعهد بلندمدت به سرمایهگذاری در هوش مصنوعی هستند. اغلب این طرحها بسیار جدید هستند و نمیتوان گفت که چه تأثیری خواهند داشت؛ از اینرو، نقش دولت را بهعنوان یک عدم قطعیت کلیدی میتوانیم در نظر بگیریم. دولتها میتوانند مقدار پولی که برای هوش مصنوعی خرج میشود را افزایش دهند و میتوانند نقشی فعال در تعیین محل سرمایهگذاری داشته باشند؛ همچنین، میتوانند با توسعه یا محدود کردن حوزه نفوذ شرکتهای بزرگ فناوری، اثرگذار باشند.
با توجّه به دو عدم قطعیت بیانشده، چهار سناریو شکل میگیرد. نقاط تمرکز سناریوها پاسخ به چنین سؤالاتی است: هوش مصنوعی چگونه توسعه مییابد؛ تمرکز دولتها و تنظیمگران در تنظیم قوانین هوش مصنوعی بر چه ابعادی چیست؛ ساختار بازار هوش مصنوعی با توجه به قوانین چگونه خواهد بود؛ تأثیر کلی استفاده از هوش مصنوعی بر اقتصاد، صنایع و مصرفکنندگان چه خواهد بود. همانطور که ویلیام گیبسون، نویسنده شهیر داستانهای علمیتخیلی میگوید: «آینده از قبل اینجاست، فقط به طور یکنواخت توزیع نشده است». به عبارتی، بیشتر این سناریوها از قبل به شکلی در جایی از جهان وجود دارند.
در ادامه، سناریوهای چهارگانه آینده هوش مصنوعی را شرح میدهیم.
- آماده فرصتطلبی (هوش مصنوعی پایدار): در این سناریو، دولت موضع محافظهکارانه خود را در مورد مقررات هوش مصنوعی حفظ خواهد کرد. قوانین حفظ حریم خصوصی دادهها به طور دقیق تفسیر میشوند و حریم خصوصی افراد را در مرکز همه بحثها حفظ میکنند؛ حتی به قیمت تأخیر در نوآوری. بندهای بیشتری به مقررات اضافه میشود؛ زیرا شرکتهایی که بیش از حد از دستورالعملها دور میشوند، جریمههای سنگینی خواهند داشت و هزینههای مربوط به هوش مصنوعی را افزایش میدهند. مقررات محتاطانه به سکوهای گردآوری دادهها محدود نمیشود و دستورالعملهای خاصی در رابطه با الگوریتمها نیز ظاهر میشوند. در واقع، دستورالعملها فقط به موادّ کلی برای حفظ حقوق فردی محدود نمیشوند و با جزئیات بیشتری بر تصمیمگیریهای هوش مصنوعی تمرکز خواهند کرد و بررسیهای دستی برای بسیاری از موارد اجباری خواهند بود. این امر، نوآوری را به طور کامل محدود نمیکند؛ زیرا شرکتها به توسعه قابلیتهای فنی ادامه میدهند که میتواند برای پردازش مسئولانه دادهها مورد استفاده قرار گیرد و منجر به سناریوی پایدارتر با هوش مصنوعی مسئول در خط مقدم شود. همزمان با فشار دولت در ایجاد مقررات محتاطانه و افزایش هزینههای توسعه و انطباق برای شرکتها، برخی از ظرفیتهای رشد هوش مصنوعی محدود میشود. با این حال، در این سناریو، مقررات محتاطانه با نقش فعال دولت ترکیب میشود تا هوش مصنوعی را تحت فشار قرار دهد که تأثیر مثبت مشخصی خواهد داشت. در این سناریو دولت در ارائه انگیزههای لازم برای رشد هوش مصنوعی به فعالیت خود ادامه خواهد داد.
- به دنبال جایزه (هوش مصنوعی رشدمحور): نقش دولت در این سناریو بسیار فعال در توسعه و پذیرش هوش مصنوعی خواهد بود. این امر شامل تدوین سیاستهای ملی هوش مصنوعی، راهاندازی نهادهای اجرایی با مسئولیتهای خاص برای پیشبرد هوش مصنوعی، توسعه مهارتهای لازم با همکاری دانشگاهها، حمایت از تحقیقات و سرمایهگذاری فعال در توسعه هوش مصنوعی است. سرمایهگذاری در فناوریهای افزایش حریم خصوصی برای اطمینان از مزیت رقابتی انجام میشود و همراه با رویکردی انعطافپذیر در مقررات است. علاوه بر نقش فعال دولت در تحریک هوش مصنوعی، این سناریو رویکردی انعطافپذیر از تنظیمگرها در زمینه هوش مصنوعی را در نظر میگیرد: مقررات تسهیلکننده در صورت لزوم تا به نوآوران اجازه آزمایش و هدایت سرمایهگذاریها را در جهت درست بدهد. این محیط نظارتی، شرکتها را تشویق میکند که حتی در صورت وجود تردید به نوآوری بپردازند که در شرایطی که مقررات فاقد جزئیات خاص هستند، وضعیت غیرمعمولی نیست. مقررات آزاد و باز میتواند اعتماد مصرفکننده را مخدوش سازد، زیرا حفظ حریم خصوصی دادهها در کنار بسیاری از موارد دیگر، مانند الگوریتمهای تبعیضآمیز، همچنان نگرانی مهمی خواهد بود. انتظار میرود که با تلاشهای مجدد دولت و شرکتهای بزرگ فناوری برای همکاری با یکدیگر در راستای حفظ اعتماد مصرفکننده با توسعه بهترین شیوهها در استفاده از دادهها، این مشکل برطرف شود.
- اقدام متعادل (هوش مصنوعی محتاط): با رویکرد نظارتی محتاطانه در این سناریو، تنظیمگران به اعمال دیدگاه نظارتی محتاطانه خود در مورد هوش مصنوعی، از استفاده از دادهها و حریم خصوصی گرفته تا الگوریتمها و تأثیر آنها، ادامه میدهند. همانطور که آموختههای حاصل از توسعه و استفاده از هوش مصنوعی افزایش مییابد، تنظیمگران به طور مستمر در استانداردها تجدیدنظر میکنند و مصرفکنندگان را در مرکز توجه نگه میدارند. در حالی که توسعه هوش مصنوعی به بازار واگذار میشود، همچنان سهم قابل توجهی در مدیریت سیاستهای هوش مصنوعی ازسوی دولتها وجود خواهد داشت. در این سناریو، دولتها بازار هوش مصنوعی مبتنی بر صنعت را تشویق میکنند و به طور فعال به توسعه هوش مصنوعی نمیپردازند. این میتواند به معنای سرمایهگذاری اندک دولت در هوش مصنوعی باشد. ازسویی، شرکتها با هزینههای انطباق بالایی سر و کار دارند. تأثیر این دو موقعیت (سرمایهگذاری اندک دولتی و هزینه انطباق بالای شرکتها) مهم خواهد بود. محدودیتهای نظارتی بر روی دادهها و الگوریتمها تقریباً به طور مستقیم بر توسعه و امکانسنجی مقیاسپذیری برنامههای کاربردی جدید تأثیر میگذارد؛ زیرا، شرکتهای فناوری، استارتاپها و متصدیان را مجبور میکند به دقت به بررسی حوزههایی بپردازند که در آن سرمایهگذاری میکنند. البته این لزوماً یک مانع توسعه هوش مصنوعی توسط بخش خصوصی نیست، اما به معنای فقدان مشوق میتواند باشد. بررسی دقیق حوزههای سرمایهگذاری به دلیل فقدان مشوقهای دولت و مراحل تحقیق و توسعه بالقوه گرانقیمت و مقررات سختگیرانه به معنای هزینههای بالای انطباق، تعیینکننده خواهد بود. هر حوزه کاربردی جدید هوش مصنوعی ابتدا باید مورد ارزیابی قرار گیرد تا اطمینان حاصل شود که هیچ مشکل احتمالی استفاده از داده در آن وجود ندارد. هر برنامه کاربردی در مسیر تجاریسازی ابتدا باید برای سوگیریهای احتمالی آزمایش شود تا اطمینان حاصل شود که نهتنها با مقررات فعلی، بلکه با مقررات احتمالی آینده نیز مشکلی در انطباق وجود ندارد.
- زودتر شکست بخور، زودتر موفق شو (هوش مصنوعی تجربی): با تمرکز بر نوآوری در این سناریو، تنظیمگران ملی دیدگاه مواجهه با نوآوری در هوش مصنوعی خواهند داشت. در اینجا مقررات متمرکز بر تشویق نوآوری خواهد بود، و تنظیمگران جزئیات این مشوقهای مربوط به برنامههای کاربردی هوش مصنوعی در حال توسعه را بررسی میکنند. تمرکز بر نوآوری میتواند شامل معافیتهای بیشتری برای استفاده از دادهها باشد که به شرکتها اجازه میدهد با سرعت بالایی به طراحی و ارائه راهکارهای نوآور بپردازند. با توجه به اینکه قوانین دادهها و حریم خصوصی در این سناریو ذاتاً ضعیف هستند، اعتماد مصرفکنندگان به هوش مصنوعی آسیب خواهد دید. با این حال، محیط نظارتی آزاد لزوماً به معنای حمایت ضعیف از مصرفکننده نیست. با توجه به تقاضای مصرفکننده برای حفاظت از دادهها، شرکتها، بهویژه شرکتهای فناوری بزرگ میتوانند مرزهای خودتنظیمی را بهعنوان یک متمایزکننده و ابزاری برای به حداقل رساندن تهدیدها جهت افزایش قدرت بازار خود انجام دهند. در این سناریو، توسعه هوش مصنوعی ازسوی بازار هدایت میشود. در محور دیگر، دولتها مشوق استفاده از هوش مصنوعی در صنعت هستند تا بازار توسعه یابد. بر این اساس، ممکن است دولتها صرفا رشد هوش مصنوعی را با معرفی مقررات خاصی محدود نکنند، اما مشوق خاصی نیز برای توسعه ارائه نکنند. به طور کلی موضع اکثر دولتها در این سناریو، تضمین حداقل مداخله خواهد بود. استارتاپها و همچنین شرکتهای بزرگ فناوری، فناوری یا محصول برگزیده را انتخاب میکنند و توسعه هوش مصنوعی را پیش خواهند برد. در همین راستا، برنامههایی که بیشترین بازده سرمایهگذاری را برای سهامداران دارند، مواردی هستند که در اولویت قرار میگیرند. با توجه به اینکه هوش مصنوعی هنوز در مراحل اولیه توسعه است، بر اساس این سناریو ممکن است سرمایهگذاریهای کلان به سوی برنامههایی روانه شوند که هنوز امکانسنجی تجاری یا حتی فنی را انجام ندادهاند؛ زیرا شرکتها در زمینههای مختلف آزمایش و بررسی میکنند. در نهایت، بازار تعیین خواهد کرد که کدام برنامهها از بیشترین ظرفیت برخوردارند؛ در حالی که توسعه سایر موارد بی توجه به مزایای اجتماعی آنها متوقف میشود.
افزون بر سناریوهای بیانشده، پژوهشگران و مؤسّسههای تحلیلی و مشاورهای در سراسر جهان به تصویرسازی از آینده هوش مصنوعی به شیوههای گوناگون پرداختهاند. تحلیلها و دستهبندیهای متفاوتی از آینده هوش مصنوعی ارائه شده است؛ هرچند، برخی از روندها و پیشرانهای آینده در بسیاری از پژوهشها و گزارشها حضور دارند و مورد اتّفاق تحلیلگران هستند. در ادامه از این فصل، مهمترین یافتههای دیدبانی از تحلیلها و آیندهپژوهیها درباره هوش مصنوعی ارائه میشوند.
به نقل از: مرکز رصد و آینده پژوهی پردیس نوآوری و فناوری بنیان
[1] Uncertainty
پاسخ شما به دیدگاه