Новини
Спорт
Справочник
Обяви
Вход
close




ЗАРЕЖДАНЕ...
Начало
Благоевград
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Други
Кино и филми
Културни
Личности
Музика
Кулинарни
Какво означават ChatGPT и Генеративният изкуствен интелект за науката
Автор: Рени Томович 09:54 / 22.02.2023Коментари (0)305
©
Чатботовете, създадени на базата на изкуствения интелект, вече са въвлечени в науката, пише Nature. Те могат да пишат компютърни кодове, да намират грешки в уравнения и дори да пишат научни статии срещу скромна такса. Но наистина ли тази умна технология е толкова добра и ефективна?

Последните постижения в областта на изкуствения интелект едновременно зарадваха и разтревожиха изследователите.

През декември изчислителните биолози Кейси Грийн и Милтън Пивидори извършиха необичаен експеримент: те помолиха асистент (не учен) да им помогне да подобрят три от техните научни статии. Оказа се, че трудолюбивият им асистент предлага корекции на отделни подраздели за секунди, а прегледът на целия ръкопис отнема около пет минути. В една статия по биология той дори забеляза грешка в препратката към уравнението. Експериментът не винаги вървеше гладко, но след редактирането ръкописите станаха "по-четливи“ и асистентът поиска много скромна такса - по-малко от 50 цента на документ.

Този асистент, както съобщават Грийн и Пивидори, не е човек, а алгоритъм с изкуствен интелект (AI), наречен GPT-3, пуснат за първи път през 2020 г. Това е един от най-горещите генеративни AI инструменти в обвивката на чатбот, който създава обмислено написани текстове във всеки жанр - било то проза, поезия, компютърен код или, в случая на нашите изследователи, редактиране на научни статии.

Може би най-известният от тези инструменти (известен също като "големи езикови модели" или LLM) е ChatGPT, безплатна версия на GPT-3, пусната миналия ноември, която стана известна с лесната си достъпност. Има и други генеративни AI инструменти за създаване изображения или звуци.

"Наистина съм впечатлен", казва Пивидори от Университета на Пенсилвания във Филаделфия. "Това ще улесни учените и ще повиши продуктивността на нашите изследвания." Колегите му казват, че редовно използват LLM не само за редактиране на ръкописи, но и за писане или преглед на код – и дори за мозъчна атака. "Използвам LLM всеки ден“, каза Хафщайн Ейнарсон, компютърен учен в Исландския университет в Рейкявик. Той започна с GPT-3, но оттогава премина към ChatGPT, който му помага да проектира слайдове за презентации, викторини за студенти и дори да преработи дисертации в научна статия. "Много хора го използват като цифров секретар или асистент“, казва Ейнарсон.

Големите езикови модели или LLM се използват в търсачки, асистенти за кодиране и дори чатботове, които говорят с "колеги“ от други компании, за да получат отстъпка за определени продукти. Базираната в Сан Франциско OpenAI определи месечна абонаментна цена от , обещавайки на потребителите по-бързо време за реакция и приоритетен достъп до нови функции (въпреки че пробната версия все още е достъпна безплатно). А технологичният гигант Microsoft не само вече инвестира в OpenAI, но и обяви нови инвестиции през януари - по предварителни данни за десет милиарда долара. Очаква се LLM да се слеят в софтуер за текстообработка и обработка на данни. Днешните инструменти са по същество генериращ AI в начален стадий, но в бъдеще той със сигурност ще стане наистина повсеместен в нашето общество.

В същото време LLM вече са станали причина за безпокойство: първо, досега те все още са много фалшиви, и второ, хората могат да предадат текста, създаден с помощта на AI, като свой собствен. В отговор на нашите запитвания относно потенциалното използване на чатботове като ChatGPT, изследователите изразиха загриженост и загриженост. "Ако смятате, че тази технология има революционен потенциал, тогава мисля, че можете да започнете да се изнервяте“, казва Кейси Грийн от Медицинския факултет към Университета на Колорадо в Аврора. Според изследователите много в спецификата на работата на чатботовете с AI ще зависи от бъдещи правила и препоръки.

Свободен, но не безпогрешен

Някои учени смятат, че LLM обикновено ускоряват задачи като писане на документи или обосноваване на безвъзмездни средства - разбира се, под контрола на хората. "Учените вече няма да прекарват часове в писане на дълги предговори за кандидатстване за грант“, казва Алмира Османович Тунстрьом, невролог в университетската болница Sahlgreni в Гьотеборг, Швеция, съавтор на експериментален ръкопис, използващ GPT-3. "Те ще прехвърлят тази задача на специални системи.“

Том Тумиел, изследователски инженер в базираната в Лондон софтуерна консултантска фирма InstaDeep, казва, че използва LLM всеки ден като асистент по кодиране. "Това е като Stack Overflow, само че е по-добро“, казва той, имайки предвид популярния сайт, където програмистите отговарят на въпроси един на друг.

Но изследователите подчертават, че на LLM все още не може да се разчита безусловно: понякога те грешат. "Следователно, за образователни цели, тези системи трябва да се използват с повишено внимание", казва Османович-Тунстрем.

Тази ненадеждност е следствие от самото LLM устройство. ChatGPT и конкурентните програми научават статистически модели на езика от огромни корпуси от текстове и може да има неистина, предразсъдъци или остаряла информация. И при поискване (например в отговор на ясно формулираната молба на Грийн и Пивидори за пренаписване на някои части от ръкописите), те просто издават дума по дума стилистично правдоподобно продължение.

В резултат на това LLM лесно възпроизвеждат съществуващи грешки и могат да бъдат подвеждащи - особено по технически теми, за които им липсват данни за обучение. Освен това LLMs не са в състояние да идентифицират произхода на своите данни и когато бъдат помолени да напишат научна статия, те лесно измислят фиктивни цитати. "Не можете да разчитате на тях за фактическа точност и референтна надеждност“, отбеляза януарска редакционна статия на ChatGPT в Nature Machine Intelligence.

С тези предупреждения ChatGPT и други LLMs могат да бъдат полезен инструмент за опитни изследователи, които могат да идентифицират проблемите и сами да проверят правилността на отговорите, независимо дали става въпрос за научно обяснение или предложен компютърен код.

Поправими ли са недостатъците?

Някои инструменти за търсене, като Elicit, който е пригоден за изследователи, решават проблеми с приписването на LLM, като първо пренасочват заявки към подходяща литература и след това показват резюме за всяка връзка (въпреки че LLM може да обобщи неправилно един документ).

Компаниите за развитие на LLM са наясно с проблемите. Миналия септември дъщерното дружество на Google DeepMind публикува статия за така наречения "разговорен агент“, наречен Sparrow. Както главният изпълнителен директор и съосновател Демис Хасабис каза по-късно пред списание Time, бета тестването ще започне тази година. Списанието съобщи, че Google по-специално финализира функции като възможността за цитиране на източници. Други конкуренти - като Anthropic - твърдят, че някои от проблемите на ChatGPT вече са решени (Anthropic, OpenAI и DeepMind отказаха коментар за тази статия).






Зареждане! Моля, изчакайте ...

Все още няма коментари към статията. Бъди първият, който ще напише коментар!
ИЗПРАТИ НОВИНА
Актуални теми
Kатастрофи Великотърновско
Борба за влияние в Близкия Изток
Парламентарни избори 2024
ТВ и шоу сезон 2023/2024 г.
Лято 2024
назад 1 2 3 4 5 напред
Абонамент
Абонирайте се за mail бюлетина ни !
Абонирайте се за нашия e-mail и ще получавате на личната си поща информация за случващото се в Благоевград и региона.
e-mail:
Анкета
Ще почивате ли идната зима?
Да, в България
Да, в чужбина
Не
Не съм решил/а още

РАЗДЕЛИ:
Новини
Спорт
Справочник
Обяви
Потребители
ГРАДОВЕ:
Пловдив
Варна
Бургас
Русе
Благоевград
ЗА НАС:

За контакти:

тел.: 0886 49 49 24

novini@blagoevgrad24.bg

За реклама:

тел.: 0887 45 24 24

office@mg24.bg

Екип
Правила
Статистика: