یک نظرسنجی جدید، نادیده گرفتن گسترده پروتکل‌های هوش مصنوعی در تمام سطوح سازمانی را آشکار می‌سازد و بر نیاز فوری به راه‌حل‌های امن و تحت نظارت تأکید می‌کند.

نگاه واکاو: وعده بهره‌وری مبتنی بر هوش مصنوعی، یک چالش حیاتی برای سازمان‌های مدرن ایجاد کرده است: چگونه می‌توان کارکنان را توانمند ساخت بدون آنکه سازمان در معرض ریسک‌های امنیتی فاجعه‌بار قرار گیرد؟ پدیده «هوش مصنوعی سایه» (Shadow AI) - که در آن کارکنان از ابزارهای تأییدنشده برای انجام کارهای خود استفاده می‌کنند - دیگر یک مسئله حاشیه‌ای نیست، بلکه به یک رویه گسترده، حتی در بالاترین سطوح مدیریتی، تبدیل شده است. تحلیل پیش رو، که بر اساس داده‌های یک نظرسنجی جدید است، تصویری واضح از این واقعیت ترسیم می‌کند و بر نیاز اساسی به یک رویکرد جدید تأکید دارد؛ رویکردی که یک محیط هوش مصنوعی امن، تأییدشده و قابل حسابرسی فراهم کند.

طبق نظرسنجی شرکت CalypsoAI که در اوایل این ماه منتشر شد، مدیران و کارکنان با استفاده نادرست از ابزارهای هوش مصنوعی و نادیده گرفتن پروتکل‌های شرکت، به افزایش ریسک‌های امنیتی دامن می‌زنند. این شرکت فعال در حوزه امنیت هوش مصنوعی، بیش از ۱۰۰۰ کارمند دفتری مستقر در ایالات متحده را مورد بررسی قرار داده است.

بیش از نیمی از کارکنان گفته‌اند که اگر یک ابزار هوش مصنوعی کارشان را آسان‌تر کند، سیاست‌ها را نادیده می‌گیرند و یک‌چهارم از نیروی کار مورد بررسی اعتراف کرده‌اند که بدون تأیید مجاز بودن ابزارها، از هوش مصنوعی استفاده می‌کنند. نزدیک به ۳۰ درصد از کارکنان، محتوای تولیدشده توسط هوش مصنوعی را بدون بازبینی ارسال کرده‌اند.

مدیران رده‌بالا نیز از قوانین پیروی نمی‌کنند. بیش از یک‌چهارم از مدیران ارشد اجرایی (C-suite) به وارد کردن اطلاعات اختصاصی شرکت در ابزارهای هوش مصنوعی اعتراف کرده‌اند و همین نسبت گفته‌اند که از این فناوری برای دسترسی به داده‌ها و اسناد حساس استفاده کرده‌اند. بیش از دوسوم از رهبران ارشد گفته‌اند که حتی اگر با سیاست‌های داخلی در تضاد باشد، از هوش مصنوعی برای آسان‌تر کردن کار خود استفاده خواهند کرد.

سازمان‌هایی که برای پیاده‌سازی ایمن هوش مصنوعی تلاش کرده‌اند، معمولاً بر روی راهبری (governance) سرمایه‌گذاری کرده و سیاست‌های کلی شرکت را برای ارائه راهنمایی بهتر به‌روز می‌کنند. اما اگر کارکنان در تمام سطوح، سیاست‌های هوش مصنوعی را در محیط کار نادیده بگیرند، این تلاش‌ها عملاً بی‌اثر می‌شوند.

دانکاد کیسی، مدیرعامل CalypsoAI، در بیانیه‌ای همراه با این گزارش گفت: «ما شاهدیم که مدیران برای پیاده‌سازی هوش مصنوعی بدون درک کامل ریسک‌ها شتاب می‌کنند، کارمندان خط مقدم بدون نظارت از آن استفاده می‌کنند و حتی متخصصان امنیتی مورد اعتماد نیز قوانین خود را زیر پا می‌گذارند. ما می‌دانیم که استفاده نادرست از هوش مصنوعی می‌تواند برای سازمان‌ها فاجعه‌بار باشد و این یک تهدید در آینده نیست، بلکه همین امروز در داخل سازمان‌ها در حال وقوع است.»

طبق گزارش Infosys که در اوایل این ماه منتشر شد، اکثر کسب‌وکارها قبلاً با حداقل یک نوع حادثه مشکل‌ساز مرتبط با هوش مصنوعی مواجه شده‌اند که اغلب منجر به زیان‌های مالی شده است. سازمان‌هایی که برای مهار «هوش مصنوعی سایه» و استفاده نادرست از آن تلاش می‌کنند، با عواقب بیشتری روبرو خواهند شد.

این فیلمی است که رهبران فناوری اطلاعات قبلاً دیده‌اند.

کیسی در این گزارش گفت: «زمانی که پذیرش ابر (Cloud) آغاز شد، بسیاری از سازمان‌ها بدون کنترل‌ها، شفافیت یا مدل‌های مسئولیت مشترک مورد نیاز برای مدیریت ایمن آن، با عجله وارد این حوزه شدند. هوش مصنوعی حتی disruptiveتر (مختل‌کننده‌تر) است.»

ظهور «عامل‌های هوشمند» (AI Agents) تنها به این پیچیدگی می‌افزاید.

مدیران ارشد فناوری اطلاعات و همتایانشان در هیئت مدیره، همچنان به آموزش و سایر کنترل‌ها برای اطمینان از آگاهی کارکنان از ریسک‌های استفاده نادرست و پیامدهای آن برای سازمان، اتکا می‌کنند. مدیران با مخاطبانی پذیرا روبرو هستند: طبق نظرسنجی ManageEngine که ماه گذشته منتشر شد، از هر ۵ کارمند، ۳ نفر از آموزش بیشتر در مورد ریسک‌های مرتبط با استفاده از هوش مصنوعی استقبال می‌کنند.

نتیجه‌گیری: داده‌ها واضح هستند - صرفاً ایجاد سیاست‌های هوش مصنوعی کافی نیست. برای کاهش واقعی ریسک، سازمان‌ها باید یک جایگزین قدرتمند، امن و تأییدشده برای ابزارهای هوش مصنوعی عمومی در اختیار کارکنان خود قرار دهند. این اصل اساسی در پشت پلتفرم Vakav Autonomous است. با استقرار یک پلتفرم مدیریت دانش خصوصی و داخلی، سازمان‌ها می‌توانند قابلیت‌های پیشرفته هوش مصنوعی مولد را در یک محیط کنترل‌شده و قابل حسابرسی به تیم‌های خود ارائه دهند. این رویکرد، مشکل «هوش مصنوعی سایه» را از یک ریسک اجتناب‌ناپذیر به یک دارایی مدیریت‌شده، امن و بهره‌ور تبدیل می‌کند.