NIST ابزاری برای آزمایش ریسک مدلهای هوش مصنوعی منتشر کرد.
موسسهی ملی استاندارد و فناوری (NIST)، آژانس وزارت بازرگانی ایالات متحده که فناوری را برای دولت ایالات متحده، شرکتها و عموم مردم توسعه و آزمایش میکند، یک آزمایشگاه را مجدداً منتشر کرده است که برای اندازهگیری چگونگی کاهش عملکرد یک سیستم هوش مصنوعی توسط حملات مخرب – به ویژه حملاتی که دادههای آموزشی مدل هوش مصنوعی را “مسموم” میکنند – طراحی شده است.
ابزار مبتنی بر وب، منبع باز و مدولار به نام دیوپترا (به نام ابزار نجومی و نقشهبرداری کلاسیک) که برای اولین بار در سال 2022 منتشر شد، به دنبال کمک به شرکتهای آموزشدهنده مدلهای هوش مصنوعی و افرادی است که از این مدلها استفاده میکنند تا بتوانند ریسکهای هوش مصنوعی را ارزیابی، تحلیل و پیگیری کنند. NIST میگوید دیوپترا میتواند برای مقایسه و تحقیق در مورد مدلها و همچنین ارائه یک پلتفرم مشترک برای قرار دادن مدلها در معرض تهدیدات شبیهسازیشده در یک محیط “تیم قرمز” استفاده شود.
NIST در یک بیانیه مطبوعاتی نوشت: “آزمایش تأثیرات حملات خصمانه بر مدلهای یادگیری ماشین یکی از اهداف دیوپترا است. این نرمافزار منبع باز که مانند تولید فرزند برای دانلود رایگان در دسترس است، میتواند به جامعه، از جمله سازمانهای دولتی و کسبوکارهای کوچک و متوسط، در انجام ارزیابیها برای سنجش ادعاهای توسعهدهندگان هوش مصنوعی در مورد عملکرد سیستمهای خود کمک کند.”
دیوپترا در کنار اسناد NIST و موسسهی ایمنی هوش مصنوعی جدیدالتأسیس NIST منتشر شد که راههایی را برای کاهش برخی از خطرات هوش مصنوعی، مانند سوء استفاده از آن برای تولید پورنوگرافی غیرقانونی، ارائه میدهد. این ابزار پس از راهاندازی Inspect، مجموعهای از ابزارهای مشابه با هدف ارزیابی قابلیتها و ایمنی کلی مدلها توسط موسسهی ایمنی هوش مصنوعی بریتانیا منتشر شده است. ایالات متحده و بریتانیا همکاری مداوم برای توسعه مشترک آزمایش مدلهای پیشرفته هوش مصنوعی دارند که در نوامبر سال گذشته در اجلاس ایمنی هوش مصنوعی بریتانیا در بلچلی پارک اعلام شد.
دیوپترا همچنین محصول فرمان اجرایی رئیسجمهور جو بایدن در مورد هوش مصنوعی است که (از جمله موارد دیگر) NIST را موظف میکند به آزمایش سیستمهای هوش مصنوعی کمک کند. این فرمان اجرایی همچنین استانداردهایی را برای ایمنی و امنیت هوش مصنوعی، از جمله الزامات شرکتهای توسعهدهنده مدلها (مانند اپل) برای اطلاعرسانی به دولت فدرال و اشتراکگذاری نتایج تمام آزمایشهای ایمنی قبل از انتشار عمومی آنها، تعیین میکند.

همانطور که قبلاً نوشتهایم، معیارهای سنجش هوش مصنوعی دشوار هستند – نه کمترین دلیل آن این است که پیشرفتهترین مدلهای هوش مصنوعی امروزه جعبههای سیاه هستند که زیرساخت، دادههای آموزشی و سایر جزئیات کلیدی آنها توسط شرکتهای سازنده مخفی نگه داشته میشود. گزارشی که این ماه از سوی موسسه آدا لاولیس، یک موسسه تحقیقاتی غیرانتفاعی مستقر در بریتانیا که هوش مصنوعی را مطالعه میکند، منتشر شده است، نشان میدهد که ارزیابیها به تنهایی برای تعیین ایمنی واقعی یک مدل هوش مصنوعی کافی نیستند، زیرا سیاستهای فعلی به فروشندگان هوش مصنوعی اجازه میدهند تا انتخاب کنند که کدام ارزیابیها را انجام دهند.
NIST ادعا نمیکند که دیوپترا میتواند مدلها را کاملاً بدون ریسک کند. اما این آژانس پیشنهاد میکند که دیوپترا میتواند روشن کند که چه نوع حملاتی ممکن است عملکرد یک سیستم هوش مصنوعی را کاهش دهد و این تأثیر را بر عملکرد کمی کند.
منبع:
دیدگاهتان را بنویسید