Sztuczna inteligencja zagraża ludzkości? OpenAI tworzy zespół do walki z zagrożeniami związanymi z AI

Sztuczna inteligencja zagraża ludzkości? OpenAI tworzy zespół do walki z zagrożeniami związanymi z AI

OpenAI utworzyło nowy zespół Preparedness, który ma na celu przeciwdziałanie potencjalnym zagrożeniom związanym ze sztuczną inteligencją. Zespół, pod przewodnictwem Aleksandra Madry’ego, będzie odpowiedzialny za śledzenie i obronę przed zagrożeniami takimi jak potencjalne ataki nuklearne, ukierunkowana perswazja, kwestie związane z cyberbezpieczeństwem oraz jeszcze inne rodzaje ataków. Ponadto, zespół ten opracuje politykę rozwoju, opartą na analizie ryzyka, mającą na celu zapewnienie bezpieczeństwa nowych modeli sztucznej inteligencji.

  • OpenAI tworzy nowy zespół ds. zagrożeń stwarzanych przez sztuczną inteligencję.
  • Twórca ChatGPT OpenAI stwierdził we wpisie na blogu, że nowy zespół, będzie obserwował, przewidywał i próbował bronić się przed niebezpieczeństwami takimi jak zagrożenia nuklearne.
  • Kolejnym zadaniem przydzielonym zespołowi jest stworzenie i wdrożenie polityki rozwoju opartej na ryzyku (RDP).
  • Sam Altman, dyrektor generalny OpenAI, i inni specjaliści ds. sztucznej inteligencji wydali w maju 2023 r. ostrzeżenie, twierdząc, że technologia ta może doprowadzić do końca ludzkości

W celu zmniejszenia zagrożeń związanych ze sztuczną inteligencją (AI) w miarę postępu technologicznego, OpenAI utworzyło nowy zespół. Twórca ChatGPT OpenAI stwierdził w poście na blogu, że zespół, nazwany Preparedness, będzie obserwował, przewidywał i próbował bronić się przed katastrofalnymi zagrożeniami, takimi jak zagrożenia nuklearne. Ponadto zespół będzie starał się zwalczać inne zagrożenia np.: ukierunkowana perswazja, cyberbezpieczeństwo, autonomiczna duplikacja i adaptacja (ARA) oraz ataki chemiczne, biologiczne i radioaktywne.

Aleksander Madry, dyrektor MIT’s Centre for Deployable Machine Learning, będzie pełnił funkcję lidera zespołu odpowiedzialnego za przygotowania.

OpenAI uważa, że pionierskie modele sztucznej inteligencji mogą przynieść korzyści całej ludzkości, ponieważ przewyższą możliwości aktualnie najbardziej zaawansowanych istniejących modeli. Jednak stwarzają też coraz poważniejsze zagrożenia.

Kolejnym zadaniem przydzielonym nowopowstałemu zespołowi jest stworzenie i wdrożenie polityki rozwoju opartej na ryzyku (RDP). RDP ma na celu nakreślenie strategii OpenAI w zakresie tworzenia zabezpieczeń, przeprowadzania dogłębnych ocen i śledzenia możliwości pionierskich modeli sztucznej inteligencji oraz zapewnienia struktur zarządzania w celu nadzoru i odpowiedzialności podczas całego procesu rozwoju.

Według OpenAI RDP ma na celu uzupełnienie i rozszerzenie ich dotychczasowej pracy w zakresie ograniczania ryzyka, oraz pomaga zapewnić, że nowe, wysoce wydajne systemy są bezpieczne i dostosowane zarówno przed jak i po wdrożeniu.

Sam Altman, dyrektor generalny OpenAI, i inni specjaliści ds. sztucznej inteligencji wydali w maju 2023 r. katastrofalne ostrzeżenie, twierdząc, że technologia ta może doprowadzić do końca ludzkości.

Oświadczenie złożone przez grupę wybitnych dyrektorów generalnych, inżynierów i naukowców mówi o tym, że zmniejszenie ryzyka wyginięcia spowodowanego sztuczną inteligencją powinno być globalnym priorytetem, obok innych zagrożeń społecznych, takich jak pandemie i wojna nuklearna.

Total
0
Shares
Dodaj komentarz

Podobne Wpisy