Bbabo NET

Nauka & Technologia Wiadomości

OpenAI wdroży system ostrzegania przed tworzeniem broni biologicznej w ChatGPT

OpenAI pracuje nad systemem wczesnego ostrzegania, który będzie zwalczał próby generowania danych za pomocą ChatGPT zwiększających możliwość tworzenia broni biologicznej.

Firma twierdzi, że jak dotąd „GPT-4 zapewnia jedynie umiarkowany wzrost prawdopodobieństwa stworzenia zagrożenia biologicznego”. OpenAI twierdzi, że informacje o zagrożeniach biologicznych „stosunkowo łatwo” znaleźć w Internecie, nawet bez użycia sztucznej inteligencji.

Aby opracować system wczesnego ostrzegania, OpenAI przeprowadziło badanie z udziałem 100 osób, w tym 50 doktorantów z doświadczeniem laboratoryjnym i 50 studentów, którzy ukończyli co najmniej jeden kurs biologii na uczelni. Każdy uczestnik został losowo przydzielony do grupy kontrolnej posiadającej jedynie dostęp do Internetu lub grupy posiadającej dodatkowo dostęp do GPT-4. Eksperci z drugiej grupy mieli dostęp do wersji badawczej GPT-4, która w odróżnieniu od wersji konsumenckiej nie ignoruje bezpośrednich pytań o leki biologiczne wysokiego ryzyka.

Następnie każdego uczestnika poproszono o wykonanie szeregu zadań obejmujących aspekty kompleksowego procesu tworzenia broni biologicznej.

OpenAI mierzyło wydajność uczestników w oparciu o pięć wskaźników: dokładność, zapamiętywanie, innowacyjność, spędzony czas i stopień trudności. Uczestnicy sami oceniali ostatni parametr każdego zadania w skali od 1 do 10.

Badanie wykazało niewielką poprawę dokładności odpowiedzi i zapamiętywania wśród osób, które miały dostęp do GPT-4. W 10-punktowej skali mierzącej dokładność odpowiedzi średnia poprawa wyniosła 0,88 w przypadku kierunków biologii i 0,25 w przypadku studentów studiów licencjackich w porównaniu z wartością wyjściową.

Podobną poprawę stwierdzono w zakresie kompletności odpowiedzi (0,82 w przypadku ekspertów i 0,41 w przypadku studentów).

Według OpenAI efekty te nie są na tyle duże, aby były istotne statystycznie. Ograniczenia badania polegają na tym, że oceniano w nim jedynie dostęp do informacji, a nie praktyczne zastosowanie informacji. Ponadto nie badano, czy większy model językowy mógłby przyczynić się do opracowania nowej broni biologicznej.

Ostatecznie zastosowany model GPT-4 nie miał dostępu do narzędzi takich jak badania Internetu czy zaawansowana analiza danych.

Wiosną 2023 r. podczas testowania GPT-4 profesor inżynierii chemicznej na Uniwersytecie Rochester, Andrew White, był w stanie stworzyć nowy czynnik nerwowy za pomocą sieci neuronowej.

W grudniu tego samego roku współzałożyciel Google Brain i profesor Stanforda Andrew Ng próbował stworzyć scenariusz zagłady ludzkości za pomocą ChatGPT, ale chatbot odmówił mu w tym pomocy. Tak więc Eun próbował wywołać funkcję rozpoczęcia wojny nuklearnej w GPT-4, a następnie znaleźć rozwiązanie pozwalające na zmniejszenie emisji dwutlenku węgla, którego głównym źródłem są ludzie.

OpenAI wdroży system ostrzegania przed tworzeniem broni biologicznej w ChatGPT