یک نظرسنجی جدید، نادیده گرفتن گسترده پروتکلهای هوش مصنوعی در تمام سطوح سازمانی را آشکار میسازد و بر نیاز فوری به راهحلهای امن و تحت نظارت تأکید میکند.
نگاه واکاو: وعده بهرهوری مبتنی بر هوش مصنوعی، یک چالش حیاتی برای سازمانهای مدرن ایجاد کرده است: چگونه میتوان کارکنان را توانمند ساخت بدون آنکه سازمان در معرض ریسکهای امنیتی فاجعهبار قرار گیرد؟ پدیده «هوش مصنوعی سایه» (Shadow AI) - که در آن کارکنان از ابزارهای تأییدنشده برای انجام کارهای خود استفاده میکنند - دیگر یک مسئله حاشیهای نیست، بلکه به یک رویه گسترده، حتی در بالاترین سطوح مدیریتی، تبدیل شده است. تحلیل پیش رو، که بر اساس دادههای یک نظرسنجی جدید است، تصویری واضح از این واقعیت ترسیم میکند و بر نیاز اساسی به یک رویکرد جدید تأکید دارد؛ رویکردی که یک محیط هوش مصنوعی امن، تأییدشده و قابل حسابرسی فراهم کند.
طبق نظرسنجی شرکت CalypsoAI که در اوایل این ماه منتشر شد، مدیران و کارکنان با استفاده نادرست از ابزارهای هوش مصنوعی و نادیده گرفتن پروتکلهای شرکت، به افزایش ریسکهای امنیتی دامن میزنند. این شرکت فعال در حوزه امنیت هوش مصنوعی، بیش از ۱۰۰۰ کارمند دفتری مستقر در ایالات متحده را مورد بررسی قرار داده است.
بیش از نیمی از کارکنان گفتهاند که اگر یک ابزار هوش مصنوعی کارشان را آسانتر کند، سیاستها را نادیده میگیرند و یکچهارم از نیروی کار مورد بررسی اعتراف کردهاند که بدون تأیید مجاز بودن ابزارها، از هوش مصنوعی استفاده میکنند. نزدیک به ۳۰ درصد از کارکنان، محتوای تولیدشده توسط هوش مصنوعی را بدون بازبینی ارسال کردهاند.
مدیران ردهبالا نیز از قوانین پیروی نمیکنند. بیش از یکچهارم از مدیران ارشد اجرایی (C-suite) به وارد کردن اطلاعات اختصاصی شرکت در ابزارهای هوش مصنوعی اعتراف کردهاند و همین نسبت گفتهاند که از این فناوری برای دسترسی به دادهها و اسناد حساس استفاده کردهاند. بیش از دوسوم از رهبران ارشد گفتهاند که حتی اگر با سیاستهای داخلی در تضاد باشد، از هوش مصنوعی برای آسانتر کردن کار خود استفاده خواهند کرد.
سازمانهایی که برای پیادهسازی ایمن هوش مصنوعی تلاش کردهاند، معمولاً بر روی راهبری (governance) سرمایهگذاری کرده و سیاستهای کلی شرکت را برای ارائه راهنمایی بهتر بهروز میکنند. اما اگر کارکنان در تمام سطوح، سیاستهای هوش مصنوعی را در محیط کار نادیده بگیرند، این تلاشها عملاً بیاثر میشوند.
دانکاد کیسی، مدیرعامل CalypsoAI، در بیانیهای همراه با این گزارش گفت: «ما شاهدیم که مدیران برای پیادهسازی هوش مصنوعی بدون درک کامل ریسکها شتاب میکنند، کارمندان خط مقدم بدون نظارت از آن استفاده میکنند و حتی متخصصان امنیتی مورد اعتماد نیز قوانین خود را زیر پا میگذارند. ما میدانیم که استفاده نادرست از هوش مصنوعی میتواند برای سازمانها فاجعهبار باشد و این یک تهدید در آینده نیست، بلکه همین امروز در داخل سازمانها در حال وقوع است.»
طبق گزارش Infosys که در اوایل این ماه منتشر شد، اکثر کسبوکارها قبلاً با حداقل یک نوع حادثه مشکلساز مرتبط با هوش مصنوعی مواجه شدهاند که اغلب منجر به زیانهای مالی شده است. سازمانهایی که برای مهار «هوش مصنوعی سایه» و استفاده نادرست از آن تلاش میکنند، با عواقب بیشتری روبرو خواهند شد.
این فیلمی است که رهبران فناوری اطلاعات قبلاً دیدهاند.
کیسی در این گزارش گفت: «زمانی که پذیرش ابر (Cloud) آغاز شد، بسیاری از سازمانها بدون کنترلها، شفافیت یا مدلهای مسئولیت مشترک مورد نیاز برای مدیریت ایمن آن، با عجله وارد این حوزه شدند. هوش مصنوعی حتی disruptiveتر (مختلکنندهتر) است.»
ظهور «عاملهای هوشمند» (AI Agents) تنها به این پیچیدگی میافزاید.
مدیران ارشد فناوری اطلاعات و همتایانشان در هیئت مدیره، همچنان به آموزش و سایر کنترلها برای اطمینان از آگاهی کارکنان از ریسکهای استفاده نادرست و پیامدهای آن برای سازمان، اتکا میکنند. مدیران با مخاطبانی پذیرا روبرو هستند: طبق نظرسنجی ManageEngine که ماه گذشته منتشر شد، از هر ۵ کارمند، ۳ نفر از آموزش بیشتر در مورد ریسکهای مرتبط با استفاده از هوش مصنوعی استقبال میکنند.
نتیجهگیری: دادهها واضح هستند - صرفاً ایجاد سیاستهای هوش مصنوعی کافی نیست. برای کاهش واقعی ریسک، سازمانها باید یک جایگزین قدرتمند، امن و تأییدشده برای ابزارهای هوش مصنوعی عمومی در اختیار کارکنان خود قرار دهند. این اصل اساسی در پشت پلتفرم Vakav Autonomous است. با استقرار یک پلتفرم مدیریت دانش خصوصی و داخلی، سازمانها میتوانند قابلیتهای پیشرفته هوش مصنوعی مولد را در یک محیط کنترلشده و قابل حسابرسی به تیمهای خود ارائه دهند. این رویکرد، مشکل «هوش مصنوعی سایه» را از یک ریسک اجتنابناپذیر به یک دارایی مدیریتشده، امن و بهرهور تبدیل میکند.