Особливості використання EXPLAINABLE AI у біомедичній обробці зображень: прозорість та інтерпретованість моделей

Автор(и)

  • Ю.О. Пилипець Вінницький національний технічний університет
  • Я.І. Ярославський Національний університет «Одеська політехніка»
  • О.С. Волосович Вінницький національний технічний університет

DOI:

https://doi.org/10.31649/1681-7893-2025-50-2-210-214

Ключові слова:

Штучний інтелект (ШІ), пояснювальний ШІ (XAI), біомедична обробка зображень, біомедична обробка сигналів, глибоке навчання, машинне навчання, інтерпретованість, прозорість моделі, підтримка прийняття клінічних рішень, сегментація, класифікація, моделі на основі даних

Анотація

Штучний інтелект (ШІ) глибоко інтегрувався в численні наукові галузі, включаючи біомедичну обробку зображень і сигналів. Зростаючий інтерес до цієї галузі призвів до сплеску досліджень, про що свідчить різке зростання наукової активності. Використовуючи великі і різноманітні набори біомедичних даних, моделі машинного навчання і глибокого навчання трансформували різноманітні завдання - такі як моделювання, сегментація, реєстрація, класифікація і синтез - часто перевершуючи ефективність традиційних методів.

Тим не менш, основна проблема залишається: складність перекладу результатів, отриманих за допомогою ШІ, в клінічно або біологічно значущі рішення, що обмежує практичну корисність цих моделей. Пояснюваний ШІ (Explainable AI, XAI) прагне подолати цю прогалину, покращуючи інтерпретованість систем ШІ та пропонуючи прозорі пояснення їхніх рішень. Для вирішення цієї проблеми розробляється все більше підходів, і інтерес до цієї теми в науковому співтоваристві продовжує зростати.

Біографії авторів

Ю.О. Пилипець, Вінницький національний технічний університет

аспірант кафедри біомедичної інженерії та оптикоелектронних систем; офіцер відділення звʼязку, Військово-медичний клінічний центр Центрального регіону, м. Вінниця

Я.І. Ярославський, Національний університет «Одеська політехніка»

к.т.н., старший викладач кафедри біомедичної інженерії;  директор, ДП «Вінницький науково-дослідний та проектний інститут землеустрою»

О.С. Волосович, Вінницький національний технічний університет

аспірант кафедри біомедичної інженерії та оптико-електронних систем

Посилання

Almpani S., Kiouvrekis Y., Stefaneas P., Frangos P. Computational argumentation for medical device regulatory classification // International Journal on Artificial Intelligence Tools. – 2022.

Aydemir B., Hoffstetter L., та ін. Tempsal-uncovering temporal information for deep saliency prediction // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. – 2023.

Bach S., Binder A., Montavon G., Klauschen F., Müller K.-R., Samek W. On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation // PloS one. – 2015.

Bastani O., Kim C., Bastani H. Interpretability via model extraction // Fairness, Accountability, and Transparency in Machine Learning Workshop. – 2017.

Bernal J., Mazo C. Transparency of artificial intelligence in healthcare: insights from professionals in computing and healthcare worldwide // Applied Sciences. – 2022.

Bibal A., Lognoul M., De Streel A., Frénay B. Legal requirements on explainability in machine learning // Artificial Intelligence and Law. – 2021.

European Data Protection Board. Guidelines on automated individual decision-making and profiling for the purposes of regulation 2016/679 (WP251rev.01). – 2018. – Режим доступу: https://ec.europa.eu/newsroom/article29/items/612053/en.

Bondarenko A., Aleksejeva L., Jumutc V., Borisov A. Classification tree extraction from trained artificial neural networks // Procedia Computer Science. – 2017.

European Commission. General Data Protection Regulation, 2016. – Режим доступу: https://eur-lex.europa.eu/eli/reg/2016/679/oj.

European Commission. Regulation (EU) 2017/745 of the European Parliament and of the Council of 5 April 2017 on medical devices. – 2017. – Режим доступу: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32017R0745.

European Commission. Artificial Intelligence Act. – 2024. – Режим доступу: https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=OJ:L_202401689.

Dash S., Gunluk O., Wei D. Boolean decision rules via column generation // Advances in Neural Information Processing Systems. – 2018.

Dhurandhar A., Chen P.-Y., Luss R., Tu C.-C., Ting P., Shanmugam K., Das P. Explanations based on the missing: Towards contrastive explanations with pertinent negatives // Advances in Neural Information Processing Systems. – 2018. – Vol. 31 (NIPS).

Pavlov S. V. Information Technology in Medical Diagnostics //Waldemar Wójcik, Andrzej Smolarz, July 11, 2017 by CRC Press - 210 Pages.

Wójcik W., Pavlov S., Kalimoldayev M. Information Technology in Medical Diagnostics II. London: (2019). Taylor & Francis Group, CRC Press, Balkema book. – 336 Pages.

Y. Pylypets, S. Pavlov, Y. Yaroslavsky, S. Kostyuk, and M. Ursan, “Features of the application of telemedical technologies based on artificial intelligence in disaster medicine,” Opt-el. inf-energ. tech., vol. 48, no. 2, pp. 190–195, Nov 2024.

##submission.downloads##

Переглядів анотації: 0

Опубліковано

2026-01-12

Як цитувати

[1]
Ю. Пилипець, Я. Ярославський, і О. Волосович, «Особливості використання EXPLAINABLE AI у біомедичній обробці зображень: прозорість та інтерпретованість моделей», Опт-ел. інф-енерг. техн., вип. 50, вип. 2, с. 210–214, Січ 2026.

Номер

Розділ

Біомедичні оптико-електронні системи та прилади

Метрики

Завантаження

Дані завантаження ще не доступні.

Статті цього автора (авторів), які найбільше читають