اخبارتکنولوژی

گزارش در مورد هوش مصنوعی مایکروسافت

گزارش در مورد هوش مصنوعی مایکروسافت

گزارش شفافیت مسئولانه هوش مصنوعی مایکروسافت در سال ۲۰۲۳، تلاش‌های شرکت را برای عرضه هوش مصنوعی به شکل اخلاقی و ایمن روی میز نشان می‌دهد. نکات کلیدی: مایکروسافت در سال گذشته ۳۰ ابزار هوش مصنوعی مسئولانه توسعه داد، از جمله “مدارک محتوا” که علامت آب به تصاویر تولید شده توسط هوش مصنوعی اضافه می‌کند.

مایکروسافت به مشتریان هوش مصنوعی Azure ابزارهایی را برای شناسایی و حذف محتوای مشکوک ارائه کرده و روش‌های جدیدی برای شناسایی شکنجه‌های زندان معرفی کرده است.

اقدامات تیم‌های قرمز مایکروسافت تشدید شده است، با آزمایش‌های داخلی و خارجی از ویژگی‌های ایمنی مدل‌های هوش مصنوعی.

با این حال، عرضه‌های هوش مصنوعی مایکروسافت با برخی از اختلافات مواجه شده‌اند، مانند هوش مصنوعی Bing که اطلاعات نادرست و اصطلاحات نژادی تولید کرده است، و گردش تصاویر عاری از پوشاک به ادعای ایجاد شده توسط طراح مایکروسافت.

مسئول هوش مصنوعی مایکروسافت اعتراف کرده است که هوش مصنوعی مسئولانه یک تلاش پیوسته است.


گزارش در مورد هوش مصنوعی مایکروسافت
گزارش در مورد هوش مصنوعی مایکروسافت

متن کامل خبر و توضیحات بیشتر

گزارش شفافیت مسئولانه هوش مصنوعی مایکروسافت راجع به اقداماتی که شرکت در سال گذشته برای عرضه پلتفرم‌های هوش مصنوعی مسئولانه انجام داده است، شرح می‌دهد.

در گزارش سالانه شفافیت هوش مصنوعی، که عمدتاً درباره سال ۲۰۲۳ است، مایکروسافت انجامات خود را در زمینه ایمنی عرضه محصولات هوش مصنوعی تحسین می‌کند.

گزارش سالانه شفافیت هوش مصنوعی یکی از تعهداتی است که شرکت پس از امضای یک توافقنامه داوطلبانه با کاخ سفید در ماه جولای سال گذشته، انجام داد.

مایکروسافت و سایر شرکت‌ها قول دادند سیستم‌های هوش مصنوعی مسئولانه راه‌اندازی کنند و به ایمنی اعتقاد داشته باشند.

مایکروسافت در گزارش اعلام می‌کند که در سال گذشته ۳۰ ابزار هوش مصنوعی مسئولانه ایجاد کرده است، تیم هوش مصنوعی مسئولانه خود را گسترش داده و تیم‌هایی که برنامه‌های هوش مصنوعی تولیدی تولید می‌کنند، الزام داده است که در طول چرخه توسعه مخاطرات را اندازه‌گیری و نقشه‌برداری کنند.

شرکت به ثبت اعتبارات محتوا به پلتفرم‌های تولید تصویر خود اضافه کرده است که علامت آب سازمانی را روی یک تصویر قرار می‌دهد و آن را به عنوان تولید شده توسط یک مدل هوش مصنوعی معرفی می‌کند.

شرکت اعلام کرده است که به مشتریان هوش مصنوعی Azure دسترسی به ابزارهایی داده است که محتوای مشکوک مانند گفتگوهای نفرت‌آمیز، محتوای جنسی و خودآسیبی را شناسایی می‌کنند، همچنین ابزارهایی برای ارزیابی خطرات امنیتی این شامل روش‌های تشخیص شکنجه زندان وسیعی است، که در مارس امسال گسترش یافته‌اند تا شامل تزریق‌های ناپسند غیرمستقیم شود که دستورالعمل‌های مخرب بخشی از داده‌های جذب شده توسط مدل هوش مصنوعی هستند.

همچنین تلاش‌های تیم‌های قرمز خود را گسترش می‌دهد، شامل هم تیم‌های قرمز داخلی که به عمد سعی در طرد امکانات ایمنی در مدل‌های هوش مصنوعی انجام می‌دهند و هم برنامه‌های قرمز برای امکان آزمایش توسط شخص ثالث قبل از عرضه مدل‌های جدید.

با این حال، واحدهای تیم‌های قرمز خود را برای کارهایی که دارند، زیاد می‌بیند. عرضه‌های هوش مصنوعی شرکت معاف از اختلافات نبوده‌اند.

وقتی هوش مصنوعی Bing در فوریه ۲۰۲۳ اولین بار عرضه شد، کاربران متوجه شدند که چت‌بات با اطلاعات نادرست به اطمینان می‌گفت و در یک نقطه به مردم اصطلاحات نژادی یاد می‌داد. در اکتبر، کاربران تصویرساز Bing متوجه شدند که می‌توانند از پلتفرم برای تولید تصاویر ماریو (یا شخصیت‌های دیگر محبوب) در حال پرواز به برج‌های دوقلو استفاده کنند. در ژانویه، تصاویر عاری از شخصیت‌های مشهور مانند تیلور سو

ئیفت به گونه‌هایی عمیق ویرایش شده بودند که از مایکروسافت طراح به اشتراک گذاشته شده بود. مایکروسافت در نهایت روشن شد که حفره‌ای که اجازه تولید این تصاویر را می‌دهد را بسته است. در آن زمان، مدیرعامل مایکروسافت، ساتیا نادلا، گفت که تصاویر “نگران‌کننده و وحشتناک” هستند.

ناتاشا کرمپتون، رئیس مسئول هوش مصنوعی در مایکروسافت، در یک ایمیل ارسال شده به The Verge می‌گوید که شرکت متوجه است که هوش مصنوعی هنوز در حال پیشرفت است و همینطور هوش مصنوعی مسئولانه.

“هوش مصنوعی مسئولانه خط پایانی ندارد، بنابراین هیچ وقت کار خود را زیر تعهدات هوش مصنوعی داوطلبانه تمام نمی‌کنیم. اما ما از زمان امضای آنها پیشرفت قوی کرده‌ایم و از روی آن به ساختار خود امسال ادامه خواهیم داد”، کرمپتون می‌گوید.

حسین میر

ترکیب یک فرد علاقه مند به طراحی سایت و طراحی گرافیک و تکنولوژی میشه کسی که نویسنده و مدیر " ای تی بلاگ " هست ، امیدوارم مطالبی که منتشر میکنم براتون مفید باشه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا