ГОРИЗОНТАЛЬНО МАСШТАБИРУЕМАЯ АРХИТЕКТУРА С РАЗДЕЛЕНИЕМ CPU/GPU ДЛЯ ДИАГНОСТИКИ МЕЛАНОМЫ С ИСПОЛЬЗОВАНИЕ НЕЙРОННЫХ СЕТЕЙ

Uložené v:
Podrobná bibliografia
Názov: ГОРИЗОНТАЛЬНО МАСШТАБИРУЕМАЯ АРХИТЕКТУРА С РАЗДЕЛЕНИЕМ CPU/GPU ДЛЯ ДИАГНОСТИКИ МЕЛАНОМЫ С ИСПОЛЬЗОВАНИЕ НЕЙРОННЫХ СЕТЕЙ
Informácie o vydavateľovi: Вестник науки, 2025.
Rok vydania: 2025
Predmety: CPU GPU partitioning, программа Kafka, Kafka program, диагностика, deep learning, Python language, cloud technologies, CPU GPU разделение, горизонтальное масштабирование, язык Python, распределённая архитектура, diagnostics, melanoma, облачные технологии, distributed architecture, horizontal scaling, глубокое обучение, меланома
Popis: В статье представлена инновационная распределённая архитектура веб-приложения для автоматической диагностики меланомы с чётким разделением ролей между CPU- и GPU-серверами. CPU-нод(ы) обрабатывают REST-API-запросы пользователей, загружают изображения в S3 и публикуют задачи в Kafka, тогда как GPU-воркеры асинхронно потребляют сообщения из очереди и выполняют инференс глубоких нейронных сетей. Использование Kafka и S3 обеспечивает отказоустойчивость, горизонтальное масштабирование и независимое развитие компонентов приложения. Благодаря разделению серверов по вычислительному ресурсу (CPU для фронтенда и логики, GPU для инференса) достигается высокая производительность и низкая задержка при пиковых нагрузках. Экспериментальная проверка показала, что предложенная архитектура способна обрабатывать сотни запросов в минуту без деградации качества прогнозов.
The article presents an innovative distributed architecture of a web application for automatic diagnosis of melanoma with a clear division of roles between CPU and GPU servers. CPU nodes process REST API requests from users, upload images to S3, and publish tasks to Kafka, while GPU workers asynchronously consume messages from the queue and perform deep neural network inference. The use of Kafka and S3 ensures fault tolerance, horizontal scaling, and independent development of application components. Due to the separation of servers by computing resource (CPU for frontend and logic, GPU for inference), high performance and low latency at peak loads are achieved. Experimental verification has shown that the proposed architecture is capable of processing hundreds of requests per minute without degrading the quality of forecasts.
Druh dokumentu: Research
DOI: 10.24412/2712-8849-2025-687-1835-1857
Rights: CC BY
Prístupové číslo: edsair.doi...........704523bf4f968d13a330eb6a5636381c
Databáza: OpenAIRE
Popis
Abstrakt:В статье представлена инновационная распределённая архитектура веб-приложения для автоматической диагностики меланомы с чётким разделением ролей между CPU- и GPU-серверами. CPU-нод(ы) обрабатывают REST-API-запросы пользователей, загружают изображения в S3 и публикуют задачи в Kafka, тогда как GPU-воркеры асинхронно потребляют сообщения из очереди и выполняют инференс глубоких нейронных сетей. Использование Kafka и S3 обеспечивает отказоустойчивость, горизонтальное масштабирование и независимое развитие компонентов приложения. Благодаря разделению серверов по вычислительному ресурсу (CPU для фронтенда и логики, GPU для инференса) достигается высокая производительность и низкая задержка при пиковых нагрузках. Экспериментальная проверка показала, что предложенная архитектура способна обрабатывать сотни запросов в минуту без деградации качества прогнозов.<br />The article presents an innovative distributed architecture of a web application for automatic diagnosis of melanoma with a clear division of roles between CPU and GPU servers. CPU nodes process REST API requests from users, upload images to S3, and publish tasks to Kafka, while GPU workers asynchronously consume messages from the queue and perform deep neural network inference. The use of Kafka and S3 ensures fault tolerance, horizontal scaling, and independent development of application components. Due to the separation of servers by computing resource (CPU for frontend and logic, GPU for inference), high performance and low latency at peak loads are achieved. Experimental verification has shown that the proposed architecture is capable of processing hundreds of requests per minute without degrading the quality of forecasts.
DOI:10.24412/2712-8849-2025-687-1835-1857