Китай публикува нови насоки за използването на генеративен изкуствен интелект в научните изследвания, включително забрана за „директното“ използване на технологията при кандидатстване за финансиране и одобрение на научни изследвания.
Насоките за отговорно изследователско поведение бяха публикувани от Министерството на науката и технологиите на 21 декември с цел насърчаване на „здравословното развитие“ на научните изследвания.
Насоките обхващат различни аспекти на изследователския процес, включително избор на тема и партньорска проверка, като етиката, безопасността и прозрачността са основните съображения.
Правилата се прилагат за отделни изследователи и институции, включително университети и медицински и здравни центрове.
Насоките определят обща рамка за използването на AI, но не предоставят подробни правила за конкретни ситуации.
Едно от основните опасения е използването на генерирано от AI съдържание, което не може да бъде посочено като съавтор съгласно новите правила.
AI помогна на изследователи по целия свят да направят открития като нови антибиотици, които могат да помогнат в борбата с резистентните към лекарства супербактерии и катализатори, генерирани от китайски екип, които могат да помогнат за производството на кислород на Марс.
Някои учени също са изброили AI инструменти като ChatGPT като съавтори – практика, която много списания вече са спрели.
Това обаче предизвика дискусии за това дали AI трябва да бъде признат, ако открие нови материали или лекарства – и дори по-широк философски дебат за това дали трябва да се счита за равен на хората в преследването на знания.
Подпомогнат от ChatGPT рансъмуер в Китай води до четири ареста
Съгласно насоките генеративният AI все още може да се използва в изследвания, но всяко съдържание или открития, които използват технологията, трябва да бъдат ясно етикетирани като такива.
Уен Шаокинг, доцент в университета Фудан в Шанхай, каза, че ефектът от регулациите вероятно ще бъде „ограничен“, поне в неговата област на научната археология, тъй като генеративният ИИ „има тенденция да създава предложения за кандидатстване за проекти с лошо качество“ и малко хора ще го използват.
Биолог от Китайската академия на науките, която пожела да не бъде назовавана, също каза, че никога не използва AI, за да й помогне да напише предложения, защото тези езикови модели произвеждат „красиви, но по същество безсмислени думи“.
Въпреки това, друг изследовател от Китайската академия за социални науки каза, че широкото използване на генеративен AI „е необратима тенденция“ и е нереалистично и неразумно да се забранява навсякъде.
Ученият, който също говори при условие за анонимност, каза, че изследователите ще продължат да го използват в изследвания и заявления за грантове, ако смятат, че ще им помогне и е по-важно да разберат „как да позволят на изследователите да го използват по подходящ начин и да … сме в крак с международните тенденции“.
Бързото развитие на AI технологията „насърчи дълбоки промени в парадигмите на научните изследвания“, според документ от министерството на науката, обясняващ новите правила.
Той обаче продължи, че насоките са необходими, тъй като технологията създаде проблеми около авторството, интелектуалната собственост и обработката на данни.
Според министерството насоките се основават на „полезен чужд опит и отразяват международни практики“.
В него се казва, че насоките се основават на „широк консенсус“ в научните кръгове и ще бъдат актуализирани и коригирани въз основа на по-нататъшното технологично развитие.
Регулирането на използването на AI се превърна в основен фокус за Пекин миналата година, както в страната, така и в международен план.
Пекин пуска платформа за изкуствен интелект, за да отговори на нарастващото търсене на изчислителна мощност в страната
През април среща на Политбюро заяви, че придава „голямо значение“ на разработването на ИИ, но подчерта значението на превенцията на риска.
През август влязоха в сила първите разпоредби на страната – Временните мерки за управление на генеративни AI услуги – с цел насърчаване на „социалистическите ценности“ и „здравословното“ развитие на публично достъпно AI съдържание.
Тези мерки не се прилагат за научноизследователски институти, стига те да не предоставят генеративни AI услуги на китайската общественост, според Администрацията за киберпространство на Китай.
В началото на ноември Китай заедно с 27 други държави, включително Съединените щати и Европейския съюз, се срещнаха във Великобритания, за да подпишат Декларацията от Блечли, международен пакт за регулиране на потенциално „катастрофалните“ рискове, които биха могли да възникнат от бързо развиващия се ИИ .
Новите научни насоки на Китай разширяват временните мерки.
Освен забраната за директно използване на AI при писане на приложения, правилата също така казват, че генерираното от AI съдържание и резултати трябва да бъдат етикетирани в текста „особено когато включва ключово съдържание като факти и мнения“.
Съдържанието, генерирано от изкуствен интелект, също трябва да бъде идентифицирано в бележките под линия, раздела за методи или приложенията на научните статии, заедно с обяснения за това как е създадено и какъв софтуер е използван.
Всяко съдържание, което е маркирано като генерирано от AI, не трябва да се третира като оригинална литература и ако други автори искат да цитират това съдържание, „трябва да се даде обяснение“, се казва в указанията.
Те също така заявяват, че всички препратки, генерирани от AI, не могат да бъдат използвани, освен ако първо не бъдат проверени.
Ръководство за библиотека от Лондонския университетски колеж по-рано предупреди, че генеративният AI може да изфабрикува препратки и цитати.
Учен от Китайската академия на науките, работещ в областта на органичната химия, каза, че ограниченията върху съдържанието, генерирано от AI, са необходими, тъй като много студенти го използват, за да напишат дисертациите си, и той се опасява, че „това ще съсипе тези студенти“.
Ученият, който пожела да остане анонимен, смята, че подобни инструменти могат да направят учениците по-мързеливи и затрудняват развиването на оригинални мисловни умения.
bbabo.Net