صنعت هوش مصنوعی لایحه کلرادو را رد می کند



دنور (KDVR) – هوش مصنوعی هدف چندین لایحه است که از طریق قانونگذاری کلرادو راه می یابد، از جمله لایحه ای که به دنبال محافظت از مصرف کنندگان در برابر هوش مصنوعی است.

این لایحه به طور خاص به سیستم‌های هوش مصنوعی «پرخطر» می‌پردازد که به طور کلی به عنوان سیستم‌هایی با استفاده از هوش مصنوعی برای مدیریت یا مدیریت زیرساخت‌های حیاتی، اجزای ایمنی، آموزش و سایر راه‌هایی که در آن‌ها، اگر هوش مصنوعی شکست بخورد یا مغرضانه باشد، تعریف می‌شوند، تعریف می‌شوند. کیفیت زندگی افراد را تحت تاثیر قرار می دهد.

این لایحه آنچه را که به عنوان “سیستم های پرخطر” تعریف می کند، مشخص نمی کند.

همانطور که در حال حاضر نوشته شده است، این لایحه از توسعه دهندگان سیستم های هوش مصنوعی پرخطر می خواهد تا زمانی که از سیستم های “خطر بالا” استفاده می کنند، داده های مورد استفاده برای آموزش هوش مصنوعی را توصیف کنند، یک سیستم مدیریت ریسک را برای جلوگیری از تبعیض الگوریتمی پیاده سازی کنند، و تشخیص دهند که چه زمانی چیزی وجود دارد. به طور مصنوعی تولید یا دستکاری شده است.

این اقدام توسط سناتور رابرت رودریگز، رهبر اکثریت سنا که نماینده بخش‌هایی از شهرستان آراپاهو، دنور و جفرسون است، حمایت شد.

«هر لایحه‌ای که وضع کنیم، جهان را آنطور که می‌شناسیم به پایان خواهد رساند. رودریگز روز پنجشنبه به آسوشیتدپرس گفت: این موضوع مشترکی است که هنگام اجرای سیاست ها می شنوید. ما در اینجا با سیاستی هستیم که به خوبی انجام نشده است و این یک سقف شیشه ای است که در تلاش برای انجام یک سیاست خوب در حال شکستن آن هستیم.»

یکی از کارآفرینان هوش مصنوعی گفت که چشم انداز صنعت هوش مصنوعی از زمانی که قانونگذاران شروع به بررسی تنظیم آن کردند، به طرز چشمگیری تغییر کرده است.

کایل شانون، یکی از بنیانگذاران سالن هوش مصنوعی، می گوید: «تکنولوژی به معنای واقعی کلمه به صورت هفتگی در حال تغییر است، درست مانند روزهای اولیه وب جهانی. من همچنین به تجربه می دانم که چنین لایحه ای در اواسط دهه 1990 چقدر خفه کننده بود. و من می‌دانم که نظارت بیش از حد هوش مصنوعی در حال حاضر، کسب‌وکارهای کلرادو را در یک نقطه ضعف قابل توجه قرار خواهد داد.»

رهبران کسب‌وکار همچنین گفتند که منطق این اقدام را درک می‌کنند، اما همچنین استدلال کردند که مقررات باید به نحوه استفاده از این فناوری نگاه کنند و به دنبال فرورفتن عمیق‌تر در پیامدهای قانونی باشند.

بیش از 400 لایحه مربوط به هوش مصنوعی در سال جاری در نهادهای دولتی در سراسر کشور مورد بحث قرار گرفته است که اکثر آنها یک صنعت یا تنها بخشی از فناوری را هدف قرار می دهند – مانند جعل عمیق مورد استفاده در انتخابات یا ایجاد تصاویر مستهجن.

برخی از کارآفرینان این لایحه را رد کردند و گفتند که رعایت قوانین دشوار است و می تواند بیش از کمک به کسب و کار کلرادو آسیب برساند. بسیاری می گویند که مخالف مقررات هوش مصنوعی نیستند، اما آنها را بر اساس نحوه استفاده از فناوری می خواهند، نه نحوه ساخت آن.

بیل به دنبال اطمینان از عدم ترویج تبعیض توسط هوش مصنوعی است

بسیاری از قانونگذاران سعی کرده اند یکی از منحرف ترین معضلات فناوری را تنظیم کنند: تبعیض هوش مصنوعی. به عنوان مثال می توان به هوش مصنوعی اشاره کرد که در رتبه بندی دقیق بیماران پزشکی سیاه پوست ناموفق بود و دیگری که رزومه زنان را در حین فیلتر کردن درخواست های شغلی کاهش داد.

با این حال، طبق برآورد کمیسیون فرصت های شغلی برابر، تا 83 درصد از کارفرمایان از الگوریتم هایی برای کمک به استخدام استفاده می کنند.

سورش ونکاتاسوبرامانیان، استاد علوم کامپیوتر و علوم داده در دانشگاه براون که کلاسی را در زمینه کاهش تعصب در طراحی این الگوریتم ها تدریس می کند، توضیح داد: اگر کاری انجام نشود، تقریباً همیشه در این سیستم های هوش مصنوعی تعصب وجود خواهد داشت.

او گفت: “شما باید کاری را به طور خاص انجام دهید تا در وهله اول تعصب نداشته باشید.”

این پیشنهادات هوش مصنوعی، عمدتاً در کلرادو و کانکتیکات، پیچیده هستند، اما نکته اصلی این است که شرکت‌ها ملزم به انجام «ارزیابی تأثیر» برای سیستم‌های هوش مصنوعی هستند که نقش بزرگی در تصمیم‌گیری برای آن‌ها در ایالات متحده دارند. این گزارش‌ها شامل توضیحاتی در مورد چگونگی شکل‌دهی هوش مصنوعی به یک راه‌حل، داده‌های جمع‌آوری‌شده و تجزیه و تحلیل خطرات تبعیض، همراه با توضیحی درباره پادمان‌های شرکت خواهد بود.

لایحه کلرادو، همانطور که نوشته شده است، توسط دفتر دادستان کل ایالت اجرا خواهد شد. بین 1 ژوئیه 2025 و 30 ژوئن 2026، AG اخطاریه هایی را برای متخلف مورد ادعا صادر می کند و در صورت امکان درمان تخلف، دفتر به متخلف 60 روز فرصت می دهد تا قبل از طرح دعوای اجرایی، اوضاع را اصلاح کند.

بر اساس این لایحه، شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند مجبور نیستند به طور معمول ارزیابی‌های تاثیر را به دولت ارائه دهند. درعوض، در صورت مشاهده تبعیض، از آنها خواسته می شود که به دادستان کل فاش کنند – یک دولت یا سازمان مستقل این سیستم های هوش مصنوعی را برای سوگیری آزمایش نمی کند.

این اقدام قرار است بعدازظهر چهارشنبه در کمیته قضایی سنا مورد بررسی قرار گیرد.

آسوشیتدپرس در این گزارش مشارکت داشته است.

دیدگاهتان را بنویسید