لینک‌های قابلیت دسترسی

خبر فوری
شنبه ۲ تیر ۱۴۰۳ تهران ۰۲:۵۳

دولت آمریکا: شرکت‌های هوش مصنوعی برای مقابله با تصاویر جعلی جنسی اقدام کنند


دولت آمریکا دست‌اندرکاران صنعت فناوری دیجیتال و موسسه‌های مالی را تحت فشار گذاشته تا بازار رو به گسترش سوءاستفاده از هوش مصنوعی برای تولید تصاویر جنسی از افراد را مهار کنند.

ابزارهای هوش مصنوعی مولد، خلق تصاویر جنسی جعلی از افراد با استفاده از روش موسوم به «جعل عمقی» را بسیار ساده کرده و جعل‌کنندگان این تصاویر را در شبکه‌های اجتماعی و اتاق‌های گفت‌وگو هم‌رسانی می‌کنند.

قربانیان این پدیده، از سلبرتی‌ها گرفته تا کودکان، برای متوقف کردن گردش و بازنشر این تصاویر امکان چندانی ندارند.

در غیاب یک قانون فدرال برای نظارت بر این پدیده، کاخ سفید روز پنج‌شنبه سوم خرداد از شرکت‌های فناوری و نهادهای مالی خواست به شکل داوطلبانه در این زمینه با دولت همکاری کنند.

ماه گذشته دادستانی فدرال علیه مردی ساکن ایالت ویسکانسین به اتهام استفاده از یک ابزار پرطرفدار هوش مصنوعی به نام «استیبل دیفیوژن» برای خلق هزاران تصویر جعلی اما با ظاهری بسیار واقع‌گرایانه از کودکان در حال برقراری رابطه جنسی اعلام جرم کرد. وکیل متهم پس از جلسه تفهیم اتهام موکلش حاضر نشد در مورد این پرونده اظهارنظر کند.

شرکت «استبیلیتی ای‌آی» که مرکز آن در لندن است در روزهای اخیر گفت عرضه نسخه قدیمی‌تر «استیبل دیفیوژن» را که متهم ساکن ویسکانسین از آن استفاده می‌کرده تأیید نکرده است. عناصر فنی تشکیل‌دهنده این نوع ابزارهای قابل دسترسی در منابع بدون محدودیت به سرعت در شبکه اینترنت پخش می‌شود و مهار نوع کاربری و از دسترس خارج کردن آن‌ها بسیار دشوار است.

مرکز پژوهشی «رصدخانه اینترنت» در دانشگاه استنفورد آمریکا در ماه دسامبر گزارش داد که در «شبکه باز و گسترده هوش مصنوعی» (LAION) که یکی از بایگانی‌های بزرگ تصویر و از منابع مهم آموزش ابزارهای خلق تصویر بوسیله هوش مصنوعی است هزاران عکس مظنون به سوءاستفاده جنسی از کودکان یافته است.

«زیان‌بار بودن این فناوری دیگر یک گمانه‌زنی نیست»

دولت آمریکا امیدوار است که بخش خصوصی با تعهد به اجرای اقدامات پیشنهادی دولت بتواند از خلق و انتشار گسترده تصاویری که بدون موافقت افراد، از جمله تصاویر جنسی کودکان، بوسیله ابزارهای هوش مصنوعی تولید می‌شوند و همین‌طور پول درآوردن از این طریق جلوگیری کند.

آراتی پراباکار، مشاور ارشد علمی جو بایدن و رئیس بخش سیاست‌گذاری در زمینه علوم و فناوری در کاخ سفید، گفت: «زمانی که فناوری هوش مصنوعی مولد در دسترس عموم قرار گرفت همه در مورد زیان‌های این فناوری گمانه‌زنی می‌کردند. به نظرم اکنون می‌توان به‌طور مشخص زیان آن را احساس کرد و تشخیص داد.»

خانم پراباکار در گفت‌وگو با خبرگزاری آسوشیتدپرس از «شتاب فوق‌العاده» تولید و انتشار تصاویر بدون اطلاع و رضایت افراد، به خصوص زنان و دختران کم سن‌وسال، به روش جعل عمقی صحبت کرد و هشدار داد که در بسیاری موارد این پدیده زندگی قربانیان را ویران می‌کند.

او افزود: «این اقدامات که باید آن را شکلی از تعرض جنسی و جنسیتی قلمداد کرد به خصوص در مورد دختران نوجوان و نوجوانان هم‌جنسگرا اتفاق می‌افتد و پیامدهای جدی دارد. به دلیل قابلیت‌های هوش مصنوعی مولد این پدیده پرشتاب در حال گسترش است. سریع‌ترین واکنشی که می‌توانیم نشان دهیم اقدام شرکت‌های فناوری در مقابله با این پدیده و پذیرش مسئولیت از سوی آنها است.»

سندی که کاخ سفید در این زمینه تهیه کرده و نسخه‌ای از آن قبل از انتشار در اختیار خبرگزاری آسوشیتدپرس قرار گرفته،‌از شرکت‌های طراحی و تولید هوش مصنوعی و همین‌طور موسسات مالی، ارائه‌دهندگان خدمات رایانه‌ای ابری، شرکت‌های پرداخت اینترنتی و موتورهای جستجوگر نظیر گوگل و اپل می‌خواهد هر آنچه را که وارد بازارهای مجازی می‌شود با دقت بیشتری کنترل کنند.

دولت آمریکا در این سند می‌افزاید که بخش خصوصی باید روش‌های گوناگون پول درآوردن از تعرض جنسی با استفاده از تصویر را کاملاً مسدود و دسترسی وبسایت‌هایی که تصاویر جنسی کودکان را منتشر می‌کنند به سامانه‌های پرداخت اینترنتی قطع کند.

خانم پرابارکار در ادامه گفت‌وگو با آسوشیتدپرس افزود که بسیاری از بنگاه‌های مالی و شرکت‌های پرداخت اینترنتی گفته‌اند که به تجارت‌های مرتبط با نشر تصاویر آلوده به تعرض جنسی خدمات نمی‌دهند.

او افزود: «ولی این ملاحظات همیشه رعایت و اجرا نمی‌شود و این یکی از مواردی است که باید با قاطعیت و دقت بیشتری اجرا شود.»

سندی که کاخ سفید تهیه کرده خاطرنشان می‌کند که ارائه‌دهندگان خدمات رایانه‌ای ابری و فروشگاه‌های مجازیِ اپلیکیشن‌ها باید فروش و فعالیت برنامه‌های تلفن همراه و خدمات اینترنتی را که برای خلق تصاویر جعل عمقی مورد استفاده قرار می‌گیرند، متوقف کنند.

علاوه بر این، چه در مورد تصاویری که با جعل عمقی تولید شده و چه در مورد تصاویر واقعی که بدون رضایت صاحب آن منتشر شده است، قربانیان این اقدامات باید بتوانند به راحتی و با سرعت پلتفرم‌های اینترنتی را مجبور کنند که این تصاویر را پاک کند.

مشهورترین قربانی «جعل عمقی»، تیلور سوئیفت، خواننده آمریکایی است که طرفداران پر و پا قرص و پرشمارش در ماه ژانویه به شکل خودجوش تصمیم گرفتند با موج انتشار تصاویر جعلی او که با هوش مصنوعی تولید شده بود در شبکه‌های اجتماعی مقابله کنند.

پس از آن که مشخص شد منشأ خلق برخی از این تصاویر ابزار تصویرپردازی هوش مصنوعی مایکروسافت بوده این شرکت تعهد داد که ایمنی و کنترل را در این زمینه افزایش دهد.

شمار قابل توجهی از مدارس در آمریکا و سایر کشورها نیز به دلیل خلق و انتشار تصاویر برهنه از دانش‌آموزان خود که به روش جعل عمقی تولید شده با مشکل روبه‌رو هستند. در برخی از این موارد تحقیقات نشان داده است که محصلین نوجوان همین مدارس، تصاویر را با ابزارهای هوش مصنوعی تولید کرده و با هم‌کلاسان خود به اشتراک گذاشته‌اند.

تابستان گذشته دولت آمریکا موفق شد به شکل داوطلبانه با شرکت‌های بزرگ فناوری دیجیتال، از جمله آمازون، متا، گوگل و مایکروسافت، در مورد انجام آزمایش‌های فنی و ایمنی دقیق قبل از عرضه محصولات جدید هوش مصنوعی به توافق برسد.

مدتی بعد، در ماه اکتبر نیز جو بایدن یک فرمان اجرایی بلندپروازانه را امضا کرد که هدف آن جهت دادن به روند توسعه هوش مصنوعی به شکلی است که ضمن تضمین سودآوری شرکت‌های خالق آن ایمنی عموم را به مخاطره نیندازد.

هر چند این فرمان اساساً روی حساسیت‌های کلی در مورد توسعه هوش مصنوعی به خصوص در زمینه امنیت ملی تمرکز داشت ولی به رواج تولید تصاویر کودک‌آزارانه به وسیله هوش مصنوعی نیز اشاره کرد.

در همان فرمان آقای بایدن خاطرنشان کرد که مقرراتی که دولت در این زمینه وضع می‌کند باید به شکل تصویب لوایح قانونی در کنگره تقویت شود.

گروهی متشکل از سناتورهای هر دو حزب دمکرات و جمهوری‌خواه تلاش می‌کنند مجالس قانونگذاری آمریکا را قانع کنند که بودجه‌ای ۳۲ میلیارد دلاری برای توسعه فناوری هوش مصنوعی و اقدامات لازم برای نظارت بر ایمنی این فناوری را تصویب کند ولی آن‌ها تاکنون به تصویب لوایحی برای تبدیل کردن این روش‌های نظارتی به قانون تمایل نشان نداده‌اند.

جنیفر کلاین، مدیر شورای سیاست‌گذاری جنسیت در کاخ سفید، به خبرگزای آسوشیتدپرس گفت: «تشویق بخش خصوصی به پذیرش داوطلبانه همکاری نمی‌تواند منکر ضرورت اقدام کنگره در این زمینه باشد.»

در دهه‌های گذشته قوانین متعددی برای ممنوع کردن و جرم انگاشتن مالکیت تصاویر جنسی کودکان، حتی اگر جعلی باشند، تصویب شده است.

اراتی پراباکار، در بخش دیگری از مصاحبه با خبرگزاری آسوشیتدپرس گفت مشکل فقط مدل موسوم به متن باز یا قابل دسترسی بودن ابزارهای هوش مصنوعی برای همگان نیست.

او افزود: «مشکل، گسترده‌تر از این است. متأسفانه در این عرصه (تصاویر سوء استفاده جنسی) افراد زیادی از ابزارهای مولد تصویر استفاده می‌کنند. این پدیده به شدت در حال گسترش است. ولی به اعتقاد من هنوز دقیقاً مشخص نشده که چه بخشی از آن با استفاده از منابع باز و چه بخشی با استفاده از ابزارهای دارای مالکیت و محدودیت تولید می‌شوند.»

XS
SM
MD
LG