Какво означават ChatGPT и Генеративният изкуствен интелект за науката
©
Последните постижения в областта на изкуствения интелект едновременно зарадваха и разтревожиха изследователите.
През декември изчислителните биолози Кейси Грийн и Милтън Пивидори извършиха необичаен експеримент: те помолиха асистент (не учен) да им помогне да подобрят три от техните научни статии. Оказа се, че трудолюбивият им асистент предлага корекции на отделни подраздели за секунди, а прегледът на целия ръкопис отнема около пет минути. В една статия по биология той дори забеляза грешка в препратката към уравнението. Експериментът не винаги вървеше гладко, но след редактирането ръкописите станаха "по-четливи“ и асистентът поиска много скромна такса - по-малко от 50 цента на документ.
Този асистент, както съобщават Грийн и Пивидори, не е човек, а алгоритъм с изкуствен интелект (AI), наречен GPT-3, пуснат за първи път през 2020 г. Това е един от най-горещите генеративни AI инструменти в обвивката на чатбот, който създава обмислено написани текстове във всеки жанр - било то проза, поезия, компютърен код или, в случая на нашите изследователи, редактиране на научни статии.
Може би най-известният от тези инструменти (известен също като "големи езикови модели" или LLM) е ChatGPT, безплатна версия на GPT-3, пусната миналия ноември, която стана известна с лесната си достъпност. Има и други генеративни AI инструменти за създаване изображения или звуци.
"Наистина съм впечатлен", казва Пивидори от Университета на Пенсилвания във Филаделфия. "Това ще улесни учените и ще повиши продуктивността на нашите изследвания." Колегите му казват, че редовно използват LLM не само за редактиране на ръкописи, но и за писане или преглед на код – и дори за мозъчна атака. "Използвам LLM всеки ден“, каза Хафщайн Ейнарсон, компютърен учен в Исландския университет в Рейкявик. Той започна с GPT-3, но оттогава премина към ChatGPT, който му помага да проектира слайдове за презентации, викторини за студенти и дори да преработи дисертации в научна статия. "Много хора го използват като цифров секретар или асистент“, казва Ейнарсон.
Големите езикови модели или LLM се използват в търсачки, асистенти за кодиране и дори чатботове, които говорят с "колеги“ от други компании, за да получат отстъпка за определени продукти. Базираната в Сан Франциско OpenAI определи месечна абонаментна цена от , обещавайки на потребителите по-бързо време за реакция и приоритетен достъп до нови функции (въпреки че пробната версия все още е достъпна безплатно). А технологичният гигант Microsoft не само вече инвестира в OpenAI, но и обяви нови инвестиции през януари - по предварителни данни за десет милиарда долара. Очаква се LLM да се слеят в софтуер за текстообработка и обработка на данни. Днешните инструменти са по същество генериращ AI в начален стадий, но в бъдеще той със сигурност ще стане наистина повсеместен в нашето общество.
В същото време LLM вече са станали причина за безпокойство: първо, досега те все още са много фалшиви, и второ, хората могат да предадат текста, създаден с помощта на AI, като свой собствен. В отговор на нашите запитвания относно потенциалното използване на чатботове като ChatGPT, изследователите изразиха загриженост и загриженост. "Ако смятате, че тази технология има революционен потенциал, тогава мисля, че можете да започнете да се изнервяте“, казва Кейси Грийн от Медицинския факултет към Университета на Колорадо в Аврора. Според изследователите много в спецификата на работата на чатботовете с AI ще зависи от бъдещи правила и препоръки.
Свободен, но не безпогрешен
Някои учени смятат, че LLM обикновено ускоряват задачи като писане на документи или обосноваване на безвъзмездни средства - разбира се, под контрола на хората. "Учените вече няма да прекарват часове в писане на дълги предговори за кандидатстване за грант“, казва Алмира Османович Тунстрьом, невролог в университетската болница Sahlgreni в Гьотеборг, Швеция, съавтор на експериментален ръкопис, използващ GPT-3. "Те ще прехвърлят тази задача на специални системи.“
Том Тумиел, изследователски инженер в базираната в Лондон софтуерна консултантска фирма InstaDeep, казва, че използва LLM всеки ден като асистент по кодиране. "Това е като Stack Overflow, само че е по-добро“, казва той, имайки предвид популярния сайт, където програмистите отговарят на въпроси един на друг.
Но изследователите подчертават, че на LLM все още не може да се разчита безусловно: понякога те грешат. "Следователно, за образователни цели, тези системи трябва да се използват с повишено внимание", казва Османович-Тунстрем.
Тази ненадеждност е следствие от самото LLM устройство. ChatGPT и конкурентните програми научават статистически модели на езика от огромни корпуси от текстове и може да има неистина, предразсъдъци или остаряла информация. И при поискване (например в отговор на ясно формулираната молба на Грийн и Пивидори за пренаписване на някои части от ръкописите), те просто издават дума по дума стилистично правдоподобно продължение.
В резултат на това LLM лесно възпроизвеждат съществуващи грешки и могат да бъдат подвеждащи - особено по технически теми, за които им липсват данни за обучение. Освен това LLMs не са в състояние да идентифицират произхода на своите данни и когато бъдат помолени да напишат научна статия, те лесно измислят фиктивни цитати. "Не можете да разчитате на тях за фактическа точност и референтна надеждност“, отбеляза януарска редакционна статия на ChatGPT в Nature Machine Intelligence.
С тези предупреждения ChatGPT и други LLMs могат да бъдат полезен инструмент за опитни изследователи, които могат да идентифицират проблемите и сами да проверят правилността на отговорите, независимо дали става въпрос за научно обяснение или предложен компютърен код.
Поправими ли са недостатъците?
Някои инструменти за търсене, като Elicit, който е пригоден за изследователи, решават проблеми с приписването на LLM, като първо пренасочват заявки към подходяща литература и след това показват резюме за всяка връзка (въпреки че LLM може да обобщи неправилно един документ).
Компаниите за развитие на LLM са наясно с проблемите. Миналия септември дъщерното дружество на Google DeepMind публикува статия за така наречения "разговорен агент“, наречен Sparrow. Както главният изпълнителен директор и съосновател Демис Хасабис каза по-късно пред списание Time, бета тестването ще започне тази година. Списанието съобщи, че Google по-специално финализира функции като възможността за цитиране на източници. Други конкуренти - като Anthropic - твърдят, че някои от проблемите на ChatGPT вече са решени (Anthropic, OpenAI и DeepMind отказаха коментар за тази статия).
пон | вто | сря | чтв | пет | съб | нед |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 |
Месото, което е избор номер едно за много хора – влияе благоприят...
16:23 / 29.11.2024
Мария Бакалова скърби, загуби близък човек
15:20 / 29.11.2024
Как да се справим с неработещо отопление на задното стъкло на авт...
15:08 / 29.11.2024
Зимните суперхрани, които покачват имунитета и дават енергия
14:31 / 29.11.2024
Актуални теми
Анкета
Не (15770) | 41% | |
Да, но отложено и превъртам реклами и съдържание (14144) | 37% | |
Да, гледам по традиционен начин (8608) | 22% | |