گزارش در مورد هوش مصنوعی مایکروسافت
گزارش شفافیت مسئولانه هوش مصنوعی مایکروسافت در سال ۲۰۲۳، تلاشهای شرکت را برای عرضه هوش مصنوعی به شکل اخلاقی و ایمن روی میز نشان میدهد. نکات کلیدی: مایکروسافت در سال گذشته ۳۰ ابزار هوش مصنوعی مسئولانه توسعه داد، از جمله “مدارک محتوا” که علامت آب به تصاویر تولید شده توسط هوش مصنوعی اضافه میکند.
مایکروسافت به مشتریان هوش مصنوعی Azure ابزارهایی را برای شناسایی و حذف محتوای مشکوک ارائه کرده و روشهای جدیدی برای شناسایی شکنجههای زندان معرفی کرده است.
اقدامات تیمهای قرمز مایکروسافت تشدید شده است، با آزمایشهای داخلی و خارجی از ویژگیهای ایمنی مدلهای هوش مصنوعی.
با این حال، عرضههای هوش مصنوعی مایکروسافت با برخی از اختلافات مواجه شدهاند، مانند هوش مصنوعی Bing که اطلاعات نادرست و اصطلاحات نژادی تولید کرده است، و گردش تصاویر عاری از پوشاک به ادعای ایجاد شده توسط طراح مایکروسافت.
مسئول هوش مصنوعی مایکروسافت اعتراف کرده است که هوش مصنوعی مسئولانه یک تلاش پیوسته است.
متن کامل خبر و توضیحات بیشتر
گزارش شفافیت مسئولانه هوش مصنوعی مایکروسافت راجع به اقداماتی که شرکت در سال گذشته برای عرضه پلتفرمهای هوش مصنوعی مسئولانه انجام داده است، شرح میدهد.
در گزارش سالانه شفافیت هوش مصنوعی، که عمدتاً درباره سال ۲۰۲۳ است، مایکروسافت انجامات خود را در زمینه ایمنی عرضه محصولات هوش مصنوعی تحسین میکند.
گزارش سالانه شفافیت هوش مصنوعی یکی از تعهداتی است که شرکت پس از امضای یک توافقنامه داوطلبانه با کاخ سفید در ماه جولای سال گذشته، انجام داد.
مایکروسافت و سایر شرکتها قول دادند سیستمهای هوش مصنوعی مسئولانه راهاندازی کنند و به ایمنی اعتقاد داشته باشند.
مایکروسافت در گزارش اعلام میکند که در سال گذشته ۳۰ ابزار هوش مصنوعی مسئولانه ایجاد کرده است، تیم هوش مصنوعی مسئولانه خود را گسترش داده و تیمهایی که برنامههای هوش مصنوعی تولیدی تولید میکنند، الزام داده است که در طول چرخه توسعه مخاطرات را اندازهگیری و نقشهبرداری کنند.
شرکت به ثبت اعتبارات محتوا به پلتفرمهای تولید تصویر خود اضافه کرده است که علامت آب سازمانی را روی یک تصویر قرار میدهد و آن را به عنوان تولید شده توسط یک مدل هوش مصنوعی معرفی میکند.
شرکت اعلام کرده است که به مشتریان هوش مصنوعی Azure دسترسی به ابزارهایی داده است که محتوای مشکوک مانند گفتگوهای نفرتآمیز، محتوای جنسی و خودآسیبی را شناسایی میکنند، همچنین ابزارهایی برای ارزیابی خطرات امنیتی این شامل روشهای تشخیص شکنجه زندان وسیعی است، که در مارس امسال گسترش یافتهاند تا شامل تزریقهای ناپسند غیرمستقیم شود که دستورالعملهای مخرب بخشی از دادههای جذب شده توسط مدل هوش مصنوعی هستند.
همچنین تلاشهای تیمهای قرمز خود را گسترش میدهد، شامل هم تیمهای قرمز داخلی که به عمد سعی در طرد امکانات ایمنی در مدلهای هوش مصنوعی انجام میدهند و هم برنامههای قرمز برای امکان آزمایش توسط شخص ثالث قبل از عرضه مدلهای جدید.
با این حال، واحدهای تیمهای قرمز خود را برای کارهایی که دارند، زیاد میبیند. عرضههای هوش مصنوعی شرکت معاف از اختلافات نبودهاند.
وقتی هوش مصنوعی Bing در فوریه ۲۰۲۳ اولین بار عرضه شد، کاربران متوجه شدند که چتبات با اطلاعات نادرست به اطمینان میگفت و در یک نقطه به مردم اصطلاحات نژادی یاد میداد. در اکتبر، کاربران تصویرساز Bing متوجه شدند که میتوانند از پلتفرم برای تولید تصاویر ماریو (یا شخصیتهای دیگر محبوب) در حال پرواز به برجهای دوقلو استفاده کنند. در ژانویه، تصاویر عاری از شخصیتهای مشهور مانند تیلور سو
ئیفت به گونههایی عمیق ویرایش شده بودند که از مایکروسافت طراح به اشتراک گذاشته شده بود. مایکروسافت در نهایت روشن شد که حفرهای که اجازه تولید این تصاویر را میدهد را بسته است. در آن زمان، مدیرعامل مایکروسافت، ساتیا نادلا، گفت که تصاویر “نگرانکننده و وحشتناک” هستند.
ناتاشا کرمپتون، رئیس مسئول هوش مصنوعی در مایکروسافت، در یک ایمیل ارسال شده به The Verge میگوید که شرکت متوجه است که هوش مصنوعی هنوز در حال پیشرفت است و همینطور هوش مصنوعی مسئولانه.
“هوش مصنوعی مسئولانه خط پایانی ندارد، بنابراین هیچ وقت کار خود را زیر تعهدات هوش مصنوعی داوطلبانه تمام نمیکنیم. اما ما از زمان امضای آنها پیشرفت قوی کردهایم و از روی آن به ساختار خود امسال ادامه خواهیم داد”، کرمپتون میگوید.