با وجود پایین بودن تعداد نشت‌های داده مرتبط با هوش مصنوعی، تقریباً تمام کسب‌وکارهایی که حادثه‌ای را گزارش کرده‌اند، فاقد کنترل‌های دسترسی مناسب بوده‌اند که منجر به اختلالات گسترده‌تر و هزینه‌های هنگفت شده است.

نگاه واکاو: با نفوذ عمیق هوش مصنوعی در عملیات سازمانی، گفتگو از «هوش مصنوعی چه کارهایی می‌تواند انجام دهد؟» به «چگونه می‌توانیم آن را به صورت ایمن مدیریت کنیم؟» تغییر کرده است. راهبری هوش مصنوعی (AI Governance) دیگر یک گزینه جانبی نیست؛ بلکه یک ستون حیاتی در استراتژی مدرن امنیت و داده است. جدیدترین گزارش IBM درباره «هزینه نشت داده»، آمار نگران‌کننده‌ای را در این زمینه ارائه می‌دهد و آسیب‌های هنگفت مالی و اعتباری ناشی از شکاف بین پذیرش و نظارت بر هوش مصنوعی را به صورت کمی بیان می‌کند. این تحلیل چالشی را برجسته می‌کند که ما در آریا واکاو اساساً به حل آن متعهد هستیم.

طبق نظرسنجی IBM، اپلیکیشن‌های هوش مصنوعی در حال تبدیل شدن به یک هدف ارزشمند برای مجرمان سایبری هستند و دفاعیات سازمانی در این زمینه عقب مانده‌اند. این ارائه‌دهنده خدمات IT از موسسه Ponemon برای بررسی نشت داده در ۶۰۰ سازمان جهت گزارش سالانه خود با عنوان «هزینه نشت داده» استفاده کرده است.

حوادث امنیتی شامل مدل‌ها یا اپلیکیشن‌های هوش مصنوعی سازمانی با تنها ۱۳ درصد از نشت‌های گزارش‌شده، آمار پایینی دارند. اما از این میان، ۹۷ درصد از سازمان‌ها فاقد کنترل‌های دسترسی مناسب برای هوش مصنوعی بوده‌اند که منجر به به خطر افتادن گسترده‌تر داده‌ها و اختلال در عملیات شده است. حوادث مرتبط با هوش مصنوعی بیشتر به دلیل اپلیکیشن‌ها، APIها یا پلاگین‌های در معرض خطر رخ داده‌اند.

سازمان‌ها همچنین با حملات مبتنی بر هوش مصنوعی مواجه هستند که حدود ۱ از هر ۶ نشت داده را تشکیل می‌دهند. اغلب، مهاجمان از این فناوری برای ایجاد تلاش‌های فیشینگ یا جعل هویت با دیپ‌فیک استفاده می‌کنند.

پذیرش هوش مصنوعی می‌تواند عملیات کسب‌وکار و روندهای کاری کارکنان را بهبود بخشد، اما در صورت عدم راهبری کافی، ریسک‌های امنیتی را نیز تشدید می‌کند.

طبق نظرسنجی IBM، بیش از ۳ از هر ۵ سازمان گفته‌اند که سیاست‌های راهبری هوش مصنوعی ندارند یا هنوز در حال توسعه آن هستند. علاوه بر این، کمتر از نیمی از سازمان‌هایی که سیاست دارند، فرآیند تأیید برای استقرارها یا ممیزی‌های منظم برای هوش مصنوعی تأییدنشده (Unsanctioned AI) را نیز در اختیار دارند.

سوژا ویسوسان، معاون محصولات امنیتی در IBM، در بیانیه‌ای گفت: «داده‌ها نشان می‌دهند که شکافی بین پذیرش و نظارت بر هوش مصنوعی در حال حاضر وجود دارد و عوامل تهدید در حال بهره‌برداری از آن هستند.»

حدود ۱ از هر ۵ سازمانی که دچار نشت داده شده‌اند، ریشه آن را در «هوش مصنوعی سایه» (Shadow AI) یافته‌اند. در حالی که میانگین جهانی هزینه نشت داده ۴.۴ میلیون دلار است، سطوح بالای استفاده از هوش مصنوعی تأییدنشده حدود ۶۷۰,۰۰۰ دلار به این هزینه در مقایسه با شرکت‌هایی که سطوح پایینی از هوش مصنوعی سایه را تجربه می‌کنند، اضافه کرده است.

استفاده تأییدنشده همچنین با حجم بالاتری از اطلاعات قابل شناسایی شخصی و داده‌های مالکیت معنوی به خطر افتاده مرتبط بود. IBM به دلیل توانایی تخریبی آن، ظهور هوش مصنوعی سایه را در بین سه عامل پرهزینه‌تر نشت داده، بالاتر از کمبود مهارت‌های امنیتی، قرار داده است.

ویسوسان گفت: «هزینه بی‌عملی فقط مالی نیست، بلکه از دست دادن اعتماد، شفافیت و کنترل است.»

(نتیجه‌گیری اختصاصی واکاو)

نتیجه‌گیری: بینش‌های گزارش IBM یک فراخوان آشکار برای رهبران سازمانی است: راهبری مؤثر هوش مصنوعی غیرقابل مذاکره است. هزینه بالای مرتبط با «هوش مصنوعی سایه» و نبود تقریباً کامل کنترل‌های دسترسی در سیستم‌های آسیب‌دیده، نیاز فوری به یک پلتفرم امن و متمرکز را نشان می‌دهد. مجموعه محصولات واکاو، به ویژه Vakav Autonomous، مستقیماً به این چالش پاسخ می‌دهد؛ با فراهم کردن یک محیط تأییدشده و داخلی که در آن می‌توان از هوش مصنوعی به صورت بهره‌ور و ایمن استفاده کرد. با تعبیه کنترل‌های دسترسی قدرتمند و نظارت قابل حسابرسی در معماری اصلی خود، ما سازمان‌ها را توانمند می‌سازیم تا شکاف بین پذیرش و راهبری را پر کرده و یک تهدید بالقوه را به یک مزیت استراتژیک قابل اعتماد تبدیل کنند.