18 września, 2024

Magyar24

Polska Najnowsze wiadomości, zdjęcia, filmy i raporty specjalne z. Polska Blogi, komentarze i wiadomości archiwalne na …

Kalifornijska ustawa o sztucznej inteligencji chroniłaby nie tylko ludzi

Kalifornijska ustawa o sztucznej inteligencji chroniłaby nie tylko ludzi

FNiewiele jest miejsc na świecie, które odniosłyby większe korzyści z dynamicznie rozwijającego się przemysłu sztucznej inteligencji w Kalifornii. Niewiele miejsc może stracić więcej, jeśli zaufanie społeczne do branży zostanie nagle nadszarpnięte.

W maju Senat Kalifornii zatwierdził tę decyzję Przechodzić Ustawa Senatu nr 1047, stanowiąca część ustawodawstwa dotyczącego bezpieczeństwa sztucznej inteligencji, przyjęta większością 32 do 1, pomagająca zapewnić bezpieczny rozwój wielkoskalowych systemów sztucznej inteligencji poprzez jasne, przewidywalne i zdroworozsądkowe standardy bezpieczeństwa. Faktura teraz zdecydowany Głosowanie nad ustawą w legislaturze stanowej zaplanowano na ten tydzień, a jeśli zostanie podpisana przez gubernatora Gavina Newsoma, będzie stanowić ważny krok w ochronie obywateli Kalifornii i powstającego przemysłu sztucznej inteligencji w tym stanie przed szkodliwym wykorzystaniem.

Pod koniec poniedziałku Elon Musk zszokował wielu, ogłaszając w tweecie swoje poparcie dla ustawy. Opublikowano w X„To trudna decyzja i zdenerwuje niektórych ludzi, ale po rozważeniu wszystkiego uważam, że Kalifornia prawdopodobnie powinna uchwalić ustawę nr 1047 dotyczącą bezpieczeństwa AI” – napisał. „Od ponad 20 lat jestem zwolennikiem regulacji sztucznej inteligencji, tak jak regulujemy każdy produkt/technologię, która stwarza potencjalne ryzyko dla społeczeństwa”.

Post pojawił się kilka dni po mojej rozmowie z Muskiem na temat senackiej ustawy nr 1047. W przeciwieństwie do innych liderów korporacji, którzy często się wahają, konsultując się ze swoimi zespołami PR i prawnikami przed zajęciem stanowiska w sprawie przepisów dotyczących bezpieczeństwa, Musk był inny. Po wyjaśnieniu przeze mnie znaczenia projektu ustawy zwrócił się o dokonanie przeglądu jego tekstu pod kątem jego integralności i braku możliwości nadużyć. Następnego dnia poszedł go wspierać. Ten szybki proces decyzyjny jest świadectwem wieloletniego opowiadania się Muska za odpowiedzialną regulacją sztucznej inteligencji.

Zeszłej zimy senator Scott Wiener, twórca ustawy, zwrócił się do Funduszu Akcji Centrum Bezpieczeństwa Sztucznej Inteligencji (CAIS) w celu uzyskania sugestii technicznych i współsponsorowania. Jako założycielka CAIS moje zaangażowanie w technologie transformacyjne mające wpływ na bezpieczeństwo publiczne jest kamieniem węgielnym naszej misji. Aby utrzymać innowacje, musimy przewidzieć potencjalne pułapki, ponieważ uncja zapobiegania jest warta funta leczenia. Uznając przełomowy charakter ustawy Senatu nr 1047, z radością pomogliśmy i od tego czasu wspieramy jej przyjęcie.

Przeczytaj więcej: EKSKLUZYWNIE: Ustawa kalifornijska proponuje uregulowanie sztucznej inteligencji na poziomie stanowym

Środek ten, ukierunkowany na najbardziej zaawansowane modele sztucznej inteligencji, będzie wymagał od dużych firm testowania ryzyka, wdrożenia zabezpieczeń, zapewnienia możliwości zamknięcia działalności, ochrony sygnalistów i zarządzania ryzykiem. Środki te mają na celu zapobieganie cyberatakom na infrastrukturę krytyczną, bioinżynierię wirusów lub innym złośliwym działaniom, które mogą spowodować powszechne zniszczenia i masowe ofiary.

Antropiczny Niedawno został ostrzeżony Zagrożenia związane ze sztuczną inteligencją mogą ujawnić się w ciągu „zaledwie jednego do trzech lat”, co zaprzecza krytykom, którzy odrzucają obawy dotyczące bezpieczeństwa jako zwykłą fantazję. Oczywiście, jeśli te zagrożenia są rzeczywiście wyimaginowane, deweloperzy nie powinni obawiać się odpowiedzialności. Ponadto programiści zobowiązali się do rozwiązania tych problemów zgodnie z niedawnym rozporządzeniem wykonawczym prezydenta Joe Bidena, które zostało potwierdzone podczas szczytu AI w Seulu w 2024 r.

Egzekwowanie prawa jest z założenia proste, co pozwala prokuratorowi generalnemu Kalifornii działać tylko w skrajnych przypadkach. Nie ma wymagań licencyjnych dla nowych modeli, nie karze to uczciwych błędów ani nie kryminalizuje otwartego oprogramowania – praktyki polegającej na swobodnym udostępnianiu kodu źródłowego oprogramowania. Nie formułują go duże firmy technologiczne ani te skupiające się na scenariuszach dalekiej przyszłości. Projekt ustawy ma na celu uniemożliwienie laboratoriom przygranicznym zaniedbywania krytycznej ostrożności i zabezpieczeń w pośpiechu z wypuszczeniem najbardziej wydajnych modeli.


Podobnie jak większość badaczy bezpieczeństwa sztucznej inteligencji, w dużej mierze kieruję się wiarą w jej ogromny potencjał w zakresie korzyści dla społeczeństwa i głęboką troską o zachowanie tego potencjału. Ponieważ Kalifornia jest światowym liderem w dziedzinie sztucznej inteligencji, ta wspólna obawa jest taka, dlaczego politycy stanowi i badacze bezpieczeństwa sztucznej inteligencji tak entuzjastycznie odnoszą się do ustawy Senatu nr 1047, ponieważ historia uczy, że poważna katastrofa, taka jak katastrofa nuklearna w Three Mile Island w dniu 28 marca/marca Rok 1979 może cofnąć rodzący się przemysł o dziesięciolecia.

Agencje regulacyjne zareagowały na częściowy stopienie się elektrowni jądrowej, reformując standardy i protokoły bezpieczeństwa jądrowego. Zmiany te zwiększyły koszty operacyjne i skomplikowały eksploatację elektrowni jądrowych, ponieważ operatorzy zainwestowali w nowe systemy bezpieczeństwa i przestrzegali rygorystycznego nadzoru. Wyzwania regulacyjne sprawiły, że energia jądrowa stała się mniej atrakcyjna, zatrzymując jej rozwój w ciągu następnych 30 lat.

Katastrofa w Three Mile Island zwiększyła zależność od węgla, ropy i gazu ziemnego. Często mówi się, że była to ogromna stracona szansa na przejście w kierunku bardziej zrównoważonej i wydajnej globalnej infrastruktury energetycznej. Chociaż nie ma pewności, czy bardziej rygorystyczne przepisy mogłyby zapobiec wypadkom, jasne jest, że pojedyncze zdarzenie może głęboko wpłynąć na odbiór społeczny, dławiąc długoterminowy potencjał całej branży.

Niektórzy ludzie podejrzliwie patrzą na wszelkie działania rządu wobec przemysłu, uważając je za nieodłącznie szkodliwe dla biznesu, innowacji i przewagi konkurencyjnej państwa lub kraju. Historia Three Mile Island dowodzi, że taka perspektywa jest krótkowzroczna, ponieważ działania mające na celu zmniejszenie ryzyka katastrofy często leżą w długoterminowym interesie wschodzących gałęzi przemysłu. To także nie jedyna przestroga dla branży AI.

Kiedy po raz pierwszy pojawiły się platformy mediów społecznościowych, przyjęto je z wielkim entuzjazmem i optymizmem. W 2010 roku Pew Research Center przeprowadziło badanie dotyczące wpływu platform mediów społecznościowych na konsumentów. rekonesans Niedawne badanie przeprowadzone w USA wykazało, że 67% dorosłych Amerykanów korzystających z mediów społecznościowych uważa, że ​​mają one głównie pozytywny wpływ. Futurysta Brian Solis wyraził tego ducha, gdy oświadczył: „Media społecznościowe to nowy sposób komunikowania się, nowy sposób budowania relacji, nowy sposób budowania przedsiębiorstw i nowy sposób budowania lepszego świata”.

Miał rację w trzech czwartych.

Ze względu na obawy dotyczące naruszeń prywatności, dezinformacji i wpływu na zdrowie psychiczne, publiczny odbiór mediów społecznościowych uległ zmianie, 64% Amerykanów Powszechne jest postrzeganie tego w negatywny sposób. Skandale takie jak Cambridge Analytica podkopały zaufanie, a fałszywe wiadomości i polaryzujące treści uwydatniły rolę mediów społecznościowych w podziałach społecznych. Studiuje Badanie wykazało, że 70% młodych ludzi było narażonych na cyberprzemoc, a 91% młodych ludzi w wieku od 16 do 24 lat stwierdziło, że media społecznościowe są szkodliwe dla ich zdrowia psychicznego. Coraz większa liczba użytkowników i decydentów na całym świecie żąda od firm zajmujących się mediami społecznościowymi zaostrzenia przepisów i większej odpowiedzialności.

Nie dzieje się tak dlatego, że firmy z branży mediów społecznościowych są wyjątkowo złe. Podobnie jak w przypadku innych wschodzących branż, początki były jak „Dziki Zachód”, kiedy firmy spieszyły się, by zdominować kwitnący rynek, a regulacje rządowe były nieobecne. uzależnionyczęsto szkodliwe treści RozkwitłemTeraz wszyscy za to płacimy. W tym firmy – którym konsumenci coraz bardziej nie ufają oraz na celowniku organów regulacyjnych, ustawodawców i sądów.

Optymizm otaczający media społecznościowe nie był błędny. Technologia pomogła przełamać bariery geograficzne, wzmocnić poczucie globalnej społeczności, zdemokratyzować informację i ułatwić pozytywne ruchy społeczne. Jak mówi autor Ostrzegł Eric Qualman„Nie mamy wyboru, jeśli chodzi o korzystanie z mediów społecznościowych, pytanie brzmi, jak dobrze to robimy”.

Zmarnowanie ogromnego potencjału mediów społecznościowych i energetyki jądrowej jest tragiczne, ale to nic w porównaniu z marnowaniem potencjału sztucznej inteligencji. Inteligentne przepisy, takie jak ustawa nr 1047, to najlepsze narzędzie, jakie mamy, aby temu zapobiec, chroniąc jednocześnie innowacje i konkurencję.

Historia regulacji technologicznych podkreśla naszą zdolność przewidywania i dostosowywania się. Kiedy w XIX wieku kolej zmieniła transport, rządy ujednoliciły tory, sygnały i protokoły bezpieczeństwa. Pojawienie się elektryczności doprowadziło również do ustanowienia zasad i standardów zapobiegających pożarom i porażeniom prądem. Rewolucja samochodowa wymusiła także wprowadzenie przepisów ruchu drogowego i środków bezpieczeństwa, takich jak pasy bezpieczeństwa i poduszki powietrzne. W lotnictwie agencje takie jak Federalna Administracja Lotnicza ustanowiły rygorystyczne normy bezpieczeństwa, dzięki czemu lotnictwo jest najbezpieczniejszą formą transportu.

Historia może nam jedynie dać lekcje. Ale to od nas zależy, czy powinniśmy zwrócić uwagę na te lekcje, czy nie.