Горещи новини

Ако изкуственият интелект пише есета, какво ще правят учениците?

-9:41-Razloginfo.com

Родители и учители по целия свят се радват, че децата отново учат в класните стаи. Но те не подозират за една коварна нова академична заплаха: революцията в изкуствения интелект създаде мощни нови инструменти за автоматизирано писане. Ако изкуственият разум може да създава смислени есета и текстове в стила на Шекспир, то какво ще правят учениците на новото време?



Разбира се, измами винаги са съществували и в училище. Играта на надхитряне между ученици и учители е вечна надпревара на котка и мишка. Доскоро измамниците трябваше да плащат на някого, за да им пише важните съчинения, а плагиатството лесно се откриваше чрез специализиран софтуер. Сега новите технологии за генериране на реч чрез изкуствен интелект улесняват създаването на висококачествени есета.

Новите „речеви модели“ са системи за самообучение, които умеят всичко. Дайте на модела няколко ключови думи, поканете го на работа и ще получите цели абзаци с уникален текст. Тези модели са способни да създават всякакви резултати – есета, публикации в блогове, поезия, статии, текстове и дори компютърен код.

Първоначално разработени от изследователи на ИИ само преди няколко години, подобни модели бяха третирани с внимание и отговорност. Поне в началото. Учените съзнаваха отговорността на делото си и имаха цялостни политики за недопускане на злоупотреби. Но с развитието на технологията се появиха много играчи на арената. Тяхната надпревара и разнообразието от концепции бързо отми отговорното желание за самоограничаване. В стремежа към комерсиализация на технологията много от бариерите паднаха.

Една от компаниите заявява относно своята мисия, че използва авангардна AI технология, за да направи писането „безболезнено“. Друга пусна приложение за смартфони, което закачливо повдига вежди и подканва гимназиста: „Напиши есе за темите в Макбет“. Подобни комерсиални организации са лесни за намиране, а често не струва скъпо да се използва тяхното творение. За ученика това ще да е благодат – добре написано и уникално есе по посочена тема, с все аргументацията – само с няколко клика.

Със сигурност е важно родителите и учителите да знаят за тези нови инструменти за измама. Но всъщност те не могат да направят много по въпроса. Почти невъзможно е да се попречи на децата да имат достъп до подобни нови технологии. Училищата със сигурност ще бъдат надминати, когато става въпрос за откриване на употребата им.

Държавно регулиране? Че каква регулация би могла да попречи на децата да използват AI инструменти…

Факт е, че правителствата в някои страни вече се стараят да се намесят, макар и бавно, например за да се справят с потенциалната злоупотреба с AI в конкретни области – например при наемане на персонал или разпознаване на лица. Но темата за езиковите модели все още е далеч от вниманието на регулаторите. Още по-далеч са представите как може да бъдат ограничени потенциалните вреди.

В тази ситуация някои експерти предполагат, че решението е да бъдат накарани технологичните компании и общността от разработчици на AI да възприемат някакъв вид етичен кодекс като гаранция за отговорност. За разлика от сферите на правото или медицината обаче, в технологиите няма някакви общоприети стандарти какво се счита за отговорно поведение.

Това значи, че компаниите евентуално тепърва ще се заемат да създадат споделена „рамка за отговорно разработване, внедряване или пускане на езикови модели“, за да смекчат потенциалните вредни ефекти.

Това ще е процес, който ще отнеме време, ако изобщо се случи. Възможностите са различни, а могат и да се съчетаят помежду си. Може би всичкото генерирано съдържание, създадено от AI модели, би могло да се съхранява в общоприето хранилище, поддържано от независим „стопанин“, така че да може да се проверява за плагиатство. Възможно е и да се въведат възрастови ограничения за използването на AI модели за създаване на текст. Така ще се гарантира, че поне част от учениците не използват подобен софтуер за написването на курсовите си работи.

Но може би най-добрият начин би бил AI разработчиците да установят някаква общоприета, независима експертна група, която да прави проверки и оценки и да оторизира публикуването на езикови модели. Основна роля в подобна група би следвало да има научната общност, която може да оценява рисковете и да предлага политики за намаляването на опасностите, вместо да мисли как да ускорява комерсиализацията.

Източник: technews.bg

Последвайте ни:

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Всички коментари, мнения и твърдения принадлежат на техните автори. Блогът не носи отговорност за преки или косвени вреди от тези коментари, мнения и твърдения.

error: Content is protected !!