دنور (KDVR) – هوش مصنوعی هدف چندین لایحه است که از طریق قانونگذاری کلرادو راه می یابد، از جمله لایحه ای که به دنبال محافظت از مصرف کنندگان در برابر هوش مصنوعی است.
این لایحه به طور خاص به سیستمهای هوش مصنوعی «پرخطر» میپردازد که به طور کلی به عنوان سیستمهایی با استفاده از هوش مصنوعی برای مدیریت یا مدیریت زیرساختهای حیاتی، اجزای ایمنی، آموزش و سایر راههایی که در آنها، اگر هوش مصنوعی شکست بخورد یا مغرضانه باشد، تعریف میشوند، تعریف میشوند. کیفیت زندگی افراد را تحت تاثیر قرار می دهد.
این لایحه آنچه را که به عنوان “سیستم های پرخطر” تعریف می کند، مشخص نمی کند.
همانطور که در حال حاضر نوشته شده است، این لایحه از توسعه دهندگان سیستم های هوش مصنوعی پرخطر می خواهد تا زمانی که از سیستم های “خطر بالا” استفاده می کنند، داده های مورد استفاده برای آموزش هوش مصنوعی را توصیف کنند، یک سیستم مدیریت ریسک را برای جلوگیری از تبعیض الگوریتمی پیاده سازی کنند، و تشخیص دهند که چه زمانی چیزی وجود دارد. به طور مصنوعی تولید یا دستکاری شده است.
این اقدام توسط سناتور رابرت رودریگز، رهبر اکثریت سنا که نماینده بخشهایی از شهرستان آراپاهو، دنور و جفرسون است، حمایت شد.
«هر لایحهای که وضع کنیم، جهان را آنطور که میشناسیم به پایان خواهد رساند. رودریگز روز پنجشنبه به آسوشیتدپرس گفت: این موضوع مشترکی است که هنگام اجرای سیاست ها می شنوید. ما در اینجا با سیاستی هستیم که به خوبی انجام نشده است و این یک سقف شیشه ای است که در تلاش برای انجام یک سیاست خوب در حال شکستن آن هستیم.»
یکی از کارآفرینان هوش مصنوعی گفت که چشم انداز صنعت هوش مصنوعی از زمانی که قانونگذاران شروع به بررسی تنظیم آن کردند، به طرز چشمگیری تغییر کرده است.
کایل شانون، یکی از بنیانگذاران سالن هوش مصنوعی، می گوید: «تکنولوژی به معنای واقعی کلمه به صورت هفتگی در حال تغییر است، درست مانند روزهای اولیه وب جهانی. من همچنین به تجربه می دانم که چنین لایحه ای در اواسط دهه 1990 چقدر خفه کننده بود. و من میدانم که نظارت بیش از حد هوش مصنوعی در حال حاضر، کسبوکارهای کلرادو را در یک نقطه ضعف قابل توجه قرار خواهد داد.»
رهبران کسبوکار همچنین گفتند که منطق این اقدام را درک میکنند، اما همچنین استدلال کردند که مقررات باید به نحوه استفاده از این فناوری نگاه کنند و به دنبال فرورفتن عمیقتر در پیامدهای قانونی باشند.
بیش از 400 لایحه مربوط به هوش مصنوعی در سال جاری در نهادهای دولتی در سراسر کشور مورد بحث قرار گرفته است که اکثر آنها یک صنعت یا تنها بخشی از فناوری را هدف قرار می دهند – مانند جعل عمیق مورد استفاده در انتخابات یا ایجاد تصاویر مستهجن.
برخی از کارآفرینان این لایحه را رد کردند و گفتند که رعایت قوانین دشوار است و می تواند بیش از کمک به کسب و کار کلرادو آسیب برساند. بسیاری می گویند که مخالف مقررات هوش مصنوعی نیستند، اما آنها را بر اساس نحوه استفاده از فناوری می خواهند، نه نحوه ساخت آن.
بیل به دنبال اطمینان از عدم ترویج تبعیض توسط هوش مصنوعی است
بسیاری از قانونگذاران سعی کرده اند یکی از منحرف ترین معضلات فناوری را تنظیم کنند: تبعیض هوش مصنوعی. به عنوان مثال می توان به هوش مصنوعی اشاره کرد که در رتبه بندی دقیق بیماران پزشکی سیاه پوست ناموفق بود و دیگری که رزومه زنان را در حین فیلتر کردن درخواست های شغلی کاهش داد.
با این حال، طبق برآورد کمیسیون فرصت های شغلی برابر، تا 83 درصد از کارفرمایان از الگوریتم هایی برای کمک به استخدام استفاده می کنند.
سورش ونکاتاسوبرامانیان، استاد علوم کامپیوتر و علوم داده در دانشگاه براون که کلاسی را در زمینه کاهش تعصب در طراحی این الگوریتم ها تدریس می کند، توضیح داد: اگر کاری انجام نشود، تقریباً همیشه در این سیستم های هوش مصنوعی تعصب وجود خواهد داشت.
او گفت: “شما باید کاری را به طور خاص انجام دهید تا در وهله اول تعصب نداشته باشید.”
این پیشنهادات هوش مصنوعی، عمدتاً در کلرادو و کانکتیکات، پیچیده هستند، اما نکته اصلی این است که شرکتها ملزم به انجام «ارزیابی تأثیر» برای سیستمهای هوش مصنوعی هستند که نقش بزرگی در تصمیمگیری برای آنها در ایالات متحده دارند. این گزارشها شامل توضیحاتی در مورد چگونگی شکلدهی هوش مصنوعی به یک راهحل، دادههای جمعآوریشده و تجزیه و تحلیل خطرات تبعیض، همراه با توضیحی درباره پادمانهای شرکت خواهد بود.
لایحه کلرادو، همانطور که نوشته شده است، توسط دفتر دادستان کل ایالت اجرا خواهد شد. بین 1 ژوئیه 2025 و 30 ژوئن 2026، AG اخطاریه هایی را برای متخلف مورد ادعا صادر می کند و در صورت امکان درمان تخلف، دفتر به متخلف 60 روز فرصت می دهد تا قبل از طرح دعوای اجرایی، اوضاع را اصلاح کند.
بر اساس این لایحه، شرکتهایی که از هوش مصنوعی استفاده میکنند مجبور نیستند به طور معمول ارزیابیهای تاثیر را به دولت ارائه دهند. درعوض، در صورت مشاهده تبعیض، از آنها خواسته می شود که به دادستان کل فاش کنند – یک دولت یا سازمان مستقل این سیستم های هوش مصنوعی را برای سوگیری آزمایش نمی کند.
این اقدام قرار است بعدازظهر چهارشنبه در کمیته قضایی سنا مورد بررسی قرار گیرد.
آسوشیتدپرس در این گزارش مشارکت داشته است.