با وجود پایین بودن تعداد نشتهای داده مرتبط با هوش مصنوعی، تقریباً تمام کسبوکارهایی که حادثهای را گزارش کردهاند، فاقد کنترلهای دسترسی مناسب بودهاند که منجر به اختلالات گستردهتر و هزینههای هنگفت شده است.
نگاه واکاو: با نفوذ عمیق هوش مصنوعی در عملیات سازمانی، گفتگو از «هوش مصنوعی چه کارهایی میتواند انجام دهد؟» به «چگونه میتوانیم آن را به صورت ایمن مدیریت کنیم؟» تغییر کرده است. راهبری هوش مصنوعی (AI Governance) دیگر یک گزینه جانبی نیست؛ بلکه یک ستون حیاتی در استراتژی مدرن امنیت و داده است. جدیدترین گزارش IBM درباره «هزینه نشت داده»، آمار نگرانکنندهای را در این زمینه ارائه میدهد و آسیبهای هنگفت مالی و اعتباری ناشی از شکاف بین پذیرش و نظارت بر هوش مصنوعی را به صورت کمی بیان میکند. این تحلیل چالشی را برجسته میکند که ما در آریا واکاو اساساً به حل آن متعهد هستیم.
طبق نظرسنجی IBM، اپلیکیشنهای هوش مصنوعی در حال تبدیل شدن به یک هدف ارزشمند برای مجرمان سایبری هستند و دفاعیات سازمانی در این زمینه عقب ماندهاند. این ارائهدهنده خدمات IT از موسسه Ponemon برای بررسی نشت داده در ۶۰۰ سازمان جهت گزارش سالانه خود با عنوان «هزینه نشت داده» استفاده کرده است.
حوادث امنیتی شامل مدلها یا اپلیکیشنهای هوش مصنوعی سازمانی با تنها ۱۳ درصد از نشتهای گزارششده، آمار پایینی دارند. اما از این میان، ۹۷ درصد از سازمانها فاقد کنترلهای دسترسی مناسب برای هوش مصنوعی بودهاند که منجر به به خطر افتادن گستردهتر دادهها و اختلال در عملیات شده است. حوادث مرتبط با هوش مصنوعی بیشتر به دلیل اپلیکیشنها، APIها یا پلاگینهای در معرض خطر رخ دادهاند.
سازمانها همچنین با حملات مبتنی بر هوش مصنوعی مواجه هستند که حدود ۱ از هر ۶ نشت داده را تشکیل میدهند. اغلب، مهاجمان از این فناوری برای ایجاد تلاشهای فیشینگ یا جعل هویت با دیپفیک استفاده میکنند.
پذیرش هوش مصنوعی میتواند عملیات کسبوکار و روندهای کاری کارکنان را بهبود بخشد، اما در صورت عدم راهبری کافی، ریسکهای امنیتی را نیز تشدید میکند.
طبق نظرسنجی IBM، بیش از ۳ از هر ۵ سازمان گفتهاند که سیاستهای راهبری هوش مصنوعی ندارند یا هنوز در حال توسعه آن هستند. علاوه بر این، کمتر از نیمی از سازمانهایی که سیاست دارند، فرآیند تأیید برای استقرارها یا ممیزیهای منظم برای هوش مصنوعی تأییدنشده (Unsanctioned AI) را نیز در اختیار دارند.
سوژا ویسوسان، معاون محصولات امنیتی در IBM، در بیانیهای گفت: «دادهها نشان میدهند که شکافی بین پذیرش و نظارت بر هوش مصنوعی در حال حاضر وجود دارد و عوامل تهدید در حال بهرهبرداری از آن هستند.»
حدود ۱ از هر ۵ سازمانی که دچار نشت داده شدهاند، ریشه آن را در «هوش مصنوعی سایه» (Shadow AI) یافتهاند. در حالی که میانگین جهانی هزینه نشت داده ۴.۴ میلیون دلار است، سطوح بالای استفاده از هوش مصنوعی تأییدنشده حدود ۶۷۰,۰۰۰ دلار به این هزینه در مقایسه با شرکتهایی که سطوح پایینی از هوش مصنوعی سایه را تجربه میکنند، اضافه کرده است.
استفاده تأییدنشده همچنین با حجم بالاتری از اطلاعات قابل شناسایی شخصی و دادههای مالکیت معنوی به خطر افتاده مرتبط بود. IBM به دلیل توانایی تخریبی آن، ظهور هوش مصنوعی سایه را در بین سه عامل پرهزینهتر نشت داده، بالاتر از کمبود مهارتهای امنیتی، قرار داده است.
ویسوسان گفت: «هزینه بیعملی فقط مالی نیست، بلکه از دست دادن اعتماد، شفافیت و کنترل است.»
(نتیجهگیری اختصاصی واکاو)
نتیجهگیری: بینشهای گزارش IBM یک فراخوان آشکار برای رهبران سازمانی است: راهبری مؤثر هوش مصنوعی غیرقابل مذاکره است. هزینه بالای مرتبط با «هوش مصنوعی سایه» و نبود تقریباً کامل کنترلهای دسترسی در سیستمهای آسیبدیده، نیاز فوری به یک پلتفرم امن و متمرکز را نشان میدهد. مجموعه محصولات واکاو، به ویژه Vakav Autonomous، مستقیماً به این چالش پاسخ میدهد؛ با فراهم کردن یک محیط تأییدشده و داخلی که در آن میتوان از هوش مصنوعی به صورت بهرهور و ایمن استفاده کرد. با تعبیه کنترلهای دسترسی قدرتمند و نظارت قابل حسابرسی در معماری اصلی خود، ما سازمانها را توانمند میسازیم تا شکاف بین پذیرش و راهبری را پر کرده و یک تهدید بالقوه را به یک مزیت استراتژیک قابل اعتماد تبدیل کنند.