Остання редакція: 2024-12-11
Анотація
. Останніми роками комп'ютерні технології, зокрема технології комп'ютерного зору, відіграють усе важливішу роль у медичній діагностиці, включаючи отоскопію — процес візуалізації зовнішнього слухового ходу та барабанної перетинки для виявлення патологій вуха. Однак отоскопічні зображення мають низку особливостей, які ускладнюють автоматичну класифікацію, зокрема варіації в освітленні, орієнтації та наявність артефактів. Ці фактори вимагають розробки надійних моделей глибокого навчання для точної класифікації захворювань. У цій роботі розглянуто сучасні підходи до вирішення цієї проблеми. Розглянуто використання можливостей згорткових нейронних мереж (CNN) для виявлення об’єктів у медичних зображеннях, зокрема фотографій і відео, отриманих за допомогою отоскопічних досліджень, з метою полегшення діагностичних процедур. Проведено аналіз архітектури OTONet, спеціально розроблену для класифікації отоскопічних зображень, робіт з використанням квантового машинного навчання (QML). Було розглянуто гібридну квантово-класичну архітектуру CNN, яка використовує квантові та класичні шари згортки для вилучення прихованих функцій із зображень. Розглянуто використання архітектур глибокого навчання, таких як CNN, з імплементацією алгоритму YOLO, що є перспективним підходом до автоматизації діагностики за допомогою отоскопічних зображень. Описано процес навчання моделі, який передбачає апроксимацію функції на основі прикладів і використання унітарного кодування для зручної роботи з категоріями. Мережа прогнозує об'єкти, ділячи зображення на сітку клітинок і призначаючи рамки для кожного об'єкта, з урахуванням їх положення, розмірів та достовірності. Такий підхід дозволяє вирішувати складні завдання класифікації та виявлення об’єктів з високою точністю. Цей напрямок досліджень має великий потенціал для подальшого розвитку в медичній сфері, забезпечуючи ефективні рішення для обробки медичних зображень та покращуючи якість діагностики.
Ключові слова
Посилання
Rao D., Singh R., Kamath S., Pendekanti S., Pai D., Kolekar S., Holla R., Pathan S. OTONet: Deep Neural Network for Precise Otoscopy Image Classification. P. 1-1. 2024. DOI:10.1109/ACCESS.2024.3351668.
Ragab M., Jadid Abdulkadir S., Muneer A., Alqushaibi A., Sumiea E., Qureshi R., Al-Selwi S., Alhussian H. A Comprehensive Systematic Review of YOLO for Medical Object Detection. 2024. P. 1-1. DOI:10.1109/ACCESS.2024.3386826.
Binol H., Niazi M., Elmaraghy C. OtoXNet-automated identification of eardrum diseases from otoscope videos: a deep learning study for video-representing images. Neural Comput & Applic. 2022 №34. DOI:10.1007/s00521- 022-07107-6
Quan H., Lai H., Gao G., Ma J., Li J., Chen Dongji. Pairwise CNN-Transformer Features for Human–Object Interaction Detection. Entropy. 2024. №26. 205 p. DOI:10.3390/e26030205.
Wang J., Kang S.,Wang J., Zhang X., Ma Zh. Mirror R-CNN: Object Detection with Flipped Image. 2024. P.154-166. DOI:10.1007/978-981-97-0855-0_16.