امسال شاهد حرکتی برای استفاده مسئولانه و اخلاقی از هوش مصنوعی خواهیم بود که با چارچوبهای حکمرانی شفاف هوش مصنوعی که به حقوق و ارزشهای انسانی احترام میگذارند آغاز میشود.
در سال ۲۰۲۴، ما در یک نقطه عطف نفسگیر قرار داریم. هوش مصنوعی (AI) انتظارات باورنکردنی برای بهبود زندگی و پیشبرد کسبوکار به روشهایی ایجاد کرده است که تنها چند سال پیش غیرقابل تصور بود. اما این فناوری با چالشهای پیچیدهای در مورد خودمختاری فردی، خودارادیت و حریم خصوصی نیز همراه است.
ظرفیت ما برای اعتماد به سازمانها و دولتها با نظرات، مهارتها و جنبههای اساسی هویتمان در خطر است. در واقع، نابرابری دیجیتالی فزایندهای وجود دارد که هوش مصنوعی ایجاد میکند و تداوم میبخشد – جایی که شرکتها، برای مثال، به جزئیات شخصی، تعصبات و نقاط فشار مشتریان، چه افراد و چه مشاغل دیگر، دسترسی دارند. شخصیسازی الگوریتمی مبتنی بر هوش مصنوعی سطح جدیدی از بیقدرتی و آسیبپذیری را اضافه کرده است.
امسال، جهان گفتگویی را درباره حفاظتهای لازم برای اطمینان از اینکه هر شخص و سازمانی هنگام استفاده از هوش مصنوعی احساس آسودگی میکند، آغاز خواهد کرد، درحالیکه فضایی برای نوآوری نیز فراهم میکند. احترام به حقوق و ارزشهای بنیادی انسانی مستلزم تعادل دقیق بین انسجام فنی و اهداف سیاست دیجیتال است که مانع کسبوکار نمیشود.
در این راستا، شاخص آمادگی هوش مصنوعی سیسکو نشان میدهد که ۷۶ درصد از سازمانها سیاستهای جامع هوش مصنوعی ندارند. لیز سنتونی، مدیر ارشد استراتژی و مدیر کل برنامهها، در پیشبینیها و روندهای فناوری سالانه خود خاطرنشان کرد که اگرچه در مورد نیاز به مقررات، سیاستها و خودکنترلی و حکمرانی صنعت برای کاهش خطرات هوش مصنوعی، توافق کلی وجود دارد، اما این کافی نیست.
او گفت: «ما باید در حوزههایی مانند نقض مالکیت معنوی، جایی که بخشهایی از آثار هنری اورجینال موجود برای تولید هنر دیجیتال جدید کپی میشوند، ظرافت بیشتری به خرج دهیم. این حوزه نیاز به مقررات دارد.»
لیز سنتونی چند روز پیش در سخنرانی خود در مجمع جهانی اقتصاد، دیدگاه جامعی را ارائه کرد که مربوط به دادههایی است که مدلهای هوش مصنوعی را تغذیه میکنند. او کاملاً درست میگوید. دادهها و زمینه برای سفارشیسازی مدلهای هوش مصنوعی تمایز ایجاد میکنند و هوش مصنوعی برای تولید خروجی دقیق، قابلاعتماد و بصیرتافزا به حجم عظیمی از دادههای باکیفیت نیاز دارد.
بخشی از کارهایی که برای قابلاعتماد کردن دادهها لازم است شامل فهرستنویسی، پاکسازی، عادیسازی و ایمنسازی آن است. این کار در حال انجام است و هوش مصنوعی دستیابی به پتانسیل عظیمدادهها را آسانتر میکند. بهعنوانمثال، سیسکو در حال حاضر به حجم عظیمی از دادههای تلهمتری از عملیات عادی کسبوکار – بیش از هر کس دیگری در جهان – دسترسی دارد. ما به مشتریان خود کمک میکنیم تا به بینشهای بینظیر مبتنی بر هوش مصنوعی در سراسر دستگاهها، برنامهها، امنیت، شبکه و اینترنت دست پیدا کنند.
این شامل بیش از ۵۰۰ میلیون دستگاه متصل در سراسر پلتفرمهایی مانند Meraki، Catalyst، IoT و مرکز کنترل میشود. ما در حال حاضر بیش از ۶۲۵ میلیارد درخواست وب روزانه را برای متوقف کردن میلیونها حمله سایبری با هوش تهدید خود تجزیه و تحلیل میکنیم. و ۶۳ میلیارد معیار مشاهدهپذیری روزانه دید پیشگیرانه را فراهم میکنند و مسیری را برای زمان سریعتر به حل مشکل و افزایش چابکی سازمانی هموار میکنند.
بااینحال، چالشهایی در مورد کیفیت دادهها وجود دارد. دادههای نادرست، ناقص یا مغرضانه میتواند منجر به نتایج نادرست و گمراهکننده هوش مصنوعی شود. سازمانها باید برای اطمینان از کیفیت و قابلیت اعتماد دادههای مورداستفاده برای آموزش مدلهای هوش مصنوعی، فرایندهای قوی برای مدیریت دادهها داشته باشند.
ظهور مقررات و هارمونیزه کردن قوانین مربوط به دسترسی عادلانه و استفاده از دادهها، مانند قانون داده اتحادیه اروپا که سال آینده به طور کامل اجرا میشود، آغازگر جنبه دیگری از انقلاب هوش مصنوعی است که در سال جاری شتاب خواهد گرفت. با آزادکردن پتانسیل اقتصادی عظیم و سهم قابلتوجهی در یک بازار جدید برای دادهها، این دستورات هم به شهروندان عادی و هم به مشاغلی که به دادههای تولید شده توسط استفاده آنها از محصولات و خدمات دسترسی و استفاده مجدد میکنند، سود خواهد رساند.
طبق گزارش مجمع جهانی اقتصاد، پیشبینی میشود که حجم دادههای تولید شده در سطح جهانی در سال ۲۰۲۵ به ۴۶۳ اگزابایت در روز برسد. حجم عظیم دادههای حیاتی برای کسبوکار که در سراسر جهان ایجاد میشود، از توانایی ما برای پردازش آن پیشی میگیرد.
بااینحال، ممکن است غیرمنطقی به نظر برسد که با ادامه مصرف بیشتر و بیشتر دادهها توسط سیستمهای هوش مصنوعی، دادههای عمومی در دسترس بهزودی به سقف خود برسد و طبق برخی تخمینها، دادههای زبانی باکیفیت بالا تا سال ۲۰۲۶ به طور کامل تخلیه خواهد شد.
همین حالا هم واضح است که سازمانها باید به سمت جذب دادههای خصوصی و مصنوعی حرکت کنند. هم دادههای خصوصی و هم دادههای مصنوعی، مانند هر دادهای که تأیید نشده باشد، میتوانند منجر به سوگیری در سیستمهای هوش مصنوعی شوند.
این امر با خطر دسترسی و استفاده ناخواسته همراه است، زیرا سازمانها با چالشهای جمعآوری و نگهداری دادهها به طور مسئولانه و ایمن روبرو هستند. سوءاستفاده از دادههای خصوصی میتواند عواقب جدی مانند سرقت هویت، ضرر مالی و آسیب به شهرت داشته باشد. دادههای مصنوعی، درحالیکه به طور مصنوعی تولید میشوند، میتوانند در صورت عدم تولید یا استفاده صحیح، در راههایی که حریم خصوصی را به خطر میاندازد، استفاده شوند.
سازمانها باید اطمینان حاصل کنند که سیاستها، رویهها و دستورالعملهای حکمرانی داده را در راستای چارچوبهای مسئولیت هوش مصنوعی برای محافظت در برابر این تهدیدات، اجرا میکنند. سنتونی گفت: «رهبران باید به شفافیت و قابلیت اعتماد در مورد توسعه، استفاده و نتایج سیستمهای هوش مصنوعی متعهد باشند. بهعنوانمثال، در مورد قابلیت اطمینان، رسیدگی به محتوای نادرست و نتایج ناخواسته باید توسط سازمانهایی با ارزیابیهای مسئولانه هوش مصنوعی، آموزش قوی مدلهای زبانی بزرگ برای کاهش احتمال توهم، تجزیهوتحلیل احساسات و شکلدهی به خروجی هدایت شود.»
با درک ضرورتی که هوش مصنوعی به معادله اضافه میکند، فرایندها و ساختارهایی که تسهیل اشتراکگذاری دادهها بین شرکتها، جامعه و بخش عمومی را تسهیل میکنند، تحت بررسی دقیق قرار خواهند گرفت. در سال ۲۰۲۴، شاهد خواهیم بود که شرکتهایی در هر اندازه و صنعتی به طور رسمی چارچوبهای حکمرانی هوش مصنوعی مسئولانه را برای هدایت توسعه، کاربرد و استفاده از هوش مصنوعی با هدف دستیابی به رفاه، امنیت و رفاه مشترک ترسیم میکنند.
منبع cisco