Штучний інтелект в історичній освіті: спостереження та перспективи
##plugins.themes.bootstrap3.article.main##
Анотація
Загальнодоступні чат-боти на базі штучного інтелекту (ШІ) швидко стають невід’ємною частиною нашого життя. Це програмні середовища, які базуються на результатах роботи нейронних мереж з величезними масивами передусім текстових даних, що враховують специфіку природних людських мов, можуть сприймати текст, введений користувачем, і генерувати текстові відповіді. Наразі існують десятки популярних чат-ботів, серед яких найбільш відомі ChatGPT, Bing, Claude і Bard.
Автор публікації вже понад рік ретельно вивчає їх для особистих потреб та спостерігає за стрімким проникненням цих систем ШІ в освітній процес. За останні два навчальні семестри застосування студентами таких чат-ботів стало надзвичайно поширеним, хоч здійснюється переважно з грубим порушенням академічної доброчесності. Текст, який повинен забезпечити відповідь на різні питання з історії, генерується чат-ботами феноменально швидко, але загалом він настільки ж феноменально далекий від очікувань.
Можна виділити кілька специфічних індикаторів, котрі вказують на таке порушення доброчесності: перефразування, абсолютна узагальненість, позбавленість будь-яких важливих фактів і дат, абсурдність тверджень та кардинальне перебільшення важливості історичних проблем, подій та осіб, змішування фактологічного матеріалу з різних епох, історії різних держав і народів.
Великою проблемою видається переписування тексту (рерайтинг), з яким чат-боти добре дають собі раду і який наявні системи перевірки плагіату не в стані ідентифікувати.
Стосовно тестових завдань, зважаючи на їх переважну простоту і орієнтованість на перевірку певних усталених фактів, чат-боти «забезпечують» навіть до 90% правильних відповідей. Технічним рішенням у цій ситуації можуть бути спеціальні плагіни для обмеження переходу між вкладками браузера, хоч вони платні й незручні у використанні.
Єдиним дієвим способом відновити академічну доброчесність видається спрямування освітяністориків – не толерувати подібне застосування цих систем, ретельно пояснювати студентам їх шкідливість для сфери історичної освіти.
Чат-боти на базі ШІ навряд чи будуть колись заборонені або ліквідовані. Потрібно змиритися з тим, що вони існують, і пристосуватися до того, як вони працюють. Це справді проривні технології, котрі можуть якісно покращити історичну освіту в майбутньому, однак, на жаль, не в теперішньому.
##plugins.themes.bootstrap3.article.details##
Ця робота ліцензується відповідно до Creative Commons Attribution-NoDerivatives 4.0 International License.
Посилання
Bogost, I. (2022), ChatGPT Is Dumber Than You Think, available at: https://www.theatlantic.com/technology/archive/2022/12/chatgpt-openai-artificial-intelligence-writing-ethics/672386/ (accessed 2 December 2023).
Duszczyk, M. (2023), ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii [ChatGPT could destroy Wikipedia. Hallucinations and a flood of fake stories], available at: https://cyfrowa.rp.pl/technologie/art38428041-chatgpt-moze-zniszczyc-wikipedie-halucynacje-i-zalew-falszywych-historii (accessed 2 December 2023).
Horlach, P. (2023), «Doviriai, ale pereviriai»: yak vidreahuvaly na poshyrennia feikovoi biohrafii Olesia Honchara, stvorenoi ChatGPT [«Trust, but verify»: how they reacted to the spread of the fake biography of Oles Honchar created by ChatGPT], available at: https://suspilne.media/culture/435771-doviraj-ale-pereviraj-ak-vidreaguvali-na-posirenna-fejkovoi-biografii-olesa-goncara-stvorenoi-chatgpt/ (accessed 2 December 2023).
Roose, K. (2023), Don’t Ban ChatGPT in Schools. Teach With It, available at: https://www.nytimes.com/2023/01/12/technology/chatgpt-schools-teachers.html (accessed 2 December 2023).
Thefrenchhistorypodcast (2023), The Not-So-Accurate-History of France by ChatGPT, available at: https://www.thefrenchhistorypodcast.com/the-not-so-accurate-history-of-france-by-chatgpt/ (accessed 2 December 2023).