КОНФЕРЕНЦІЇ ВНТУ електронні наукові видання, 
Молодь в науці: дослідження, проблеми, перспективи (МН-2025)

Розмір шрифта: 
ДО ПРОБЛЕМИ КІБЕРЗАХИСТУ LLM-ЧАТ-БОТІВ
Максим Сергійович Жеглов

Остання редакція: 2025-06-03

Анотація


У роботі розглянуто проблему різноманітних атак на LLM ̶орієнтовані чат -боти. Проведено аналіз потенційних наслідків таких атак, зокрема ризиків витоку конфіденційної інформації та спотворення відповідей. Запропоновано ефективні методи захисту, що спрямовані на зменшення вразливостей і підвищення безпеки інтелектуальних чат ̶ботів.

Ключові слова


кібербезпека, великі мовні моделі, атаки на LLM, чат ̶бот, генеративний штучний інтелект.

Посилання


СПИСОК ВИКОРИСТАНОЇ ЛІТЕРАТУРИ

ZHAO, Wayne Xin, et al. A survey of large language models. arXiv preprint arXiv:2303.18223, 2023, 1.2.


Клиш В. М., Куперштейн Л. М. Аналіз атак типу prompt injection на великі мовні моделі. м. Вінниця, 24 берез. 2025 р. Вінниця, 2025.
URL: https://conferences.vntu.edu.ua/index.php/all ̶fitki/all ̶fitki ̶2025/paper/view/24458/20255 (дата звернення: 28.05.2025).


LLM01:2025 prompt injection  ̶ OWASP top 10 for LLM & generative AI security. URL: https://genai.owasp.org/llmrisk/llm01 ̶ prompt ̶injection/ (date of access: 23.03.2025).


Неретін О., Харченко В. Забезпечення кібербезпеки систем штучного інтелекту: аналіз вразливостей, атак і контрзаходів // Науковий вісник НУ «Львівська політехніка». Серія: Комп'ютерні науки та інформаційні технології.  ̶ 2023. ̶ №9.  ̶ С. 24. URL:  https://science.lpnu.ua/sites/default/files/journal ̶paper/2023/jan/29738/221029maket ̶9 ̶24.pdf (дата звернення: 28.05.2025).


Столярова О. К. Кваліфікаційна робота. Дослідження мовних моделей в задачах розробки програмного забезпечення інформаційних систем з використанням методології Kanban.  ̶ 2024.  ̶ С. 26. URL: https://openarchive.nure.ua/server/api/core/bitstreams/c3d910fd ̶d8a4 ̶4cb7 ̶9e2c ̶5453ef9ef2d2/content (дата звернення: 28.05.2025).


Kosinski M. Protect against prompt injection | IBM. URL: https://www.ibm.com/think/insights/prevent ̶prompt ̶injection (date of access: 23.03.2025).


Повний текст: PDF