Методы балансировки нагрузки между микросервисами в облачной среде
Gespeichert in:
| Titel: | Методы балансировки нагрузки между микросервисами в облачной среде |
|---|---|
| Verlagsinformationen: | ООО Цифра, 2025. |
| Publikationsjahr: | 2025 |
| Schlagwörter: | микросервисы, масштабируемость, cloud computing, load balancing, service mesh, green balancing, машинное обучение, security-aware load balancing, облачные вычисления, SDN, microservices, machine learning, edge computing, serverless, балансировка нагрузки, производительность, performance, scalability |
| Beschreibung: | Эффективная балансировка нагрузки в микросервисных облачных приложениях — ключевой фактор производительности (latency, throughput) и масштабируемости платформы. Статья систематизирует методы распределения трафика: от классических алгоритмов (Round Robin, Least Connections) до децентрализованной клиентской балансировки (Service Mesh), SDN-ориентированных схем и AI-контроллеров. Показаны преимущества и ограничения каждого подхода при динамичных и гетерогенных нагрузках. Авторский вклад заключается в разработке типологии «шесть уровней балансировки» (L4 → AI-контроллер) и decision-tree-схемывыбора стратегии под заданные KPI. На основе открытых бенчмарков и практических кейсов (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB) продемонстрировано, что прогнозные модели LSTM + DQN снижают p99-latency до 30%, а SDN-контроллеры сокращают задержку в распределённых кластерах на 15–25%. Сделан вывод о необходимости многоуровневой архитектуры LB, объединяющей глобальное сетевое управление, локальные proxy-решения и автоматическое масштабирование, а также о перспективах green balancing и энерго-/стоимостной оптимизации. Effective load balancing in microservice cloud applications is a key factor in platform performance (latency, throughput) and scalability. The article systematises traffic distribution methods: from classic algorithms (Round Robin, Least Connections) to decentralised client balancing (Service Mesh), SDN-oriented schemes, and AI controllers. The advantages and limitations of each approach under dynamic and heterogeneous loads are shown. The author's contribution lies in the development of a typology of "six levels of balancing" (L4 → AI controller) and a decision tree scheme for selecting a strategy for given KPIs. Based on open benchmarks and practical cases (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB), it is demonstrated that LSTM + DQN predictive models reduce p99 latency by up to 30%, while SDN controllers reduce latency in distributed clusters by 15–25%. The conclusion is drawn about the necessity of a multi-level LB architecture that combines global network management, local proxy solutions, and automatic scaling, as well as the prospects for green balancing and energy/cost optimisation. Международный научно-исследовательский журнал, Выпуск 8 (158) 2025 |
| Publikationsart: | Article |
| Sprache: | Russian |
| DOI: | 10.60797/irj.2025.158.27 |
| Rights: | CC BY |
| Dokumentencode: | edsair.doi...........8bb51afb520b24fb57ef1d8657cfc52a |
| Datenbank: | OpenAIRE |
| Abstract: | Эффективная балансировка нагрузки в микросервисных облачных приложениях — ключевой фактор производительности (latency, throughput) и масштабируемости платформы. Статья систематизирует методы распределения трафика: от классических алгоритмов (Round Robin, Least Connections) до децентрализованной клиентской балансировки (Service Mesh), SDN-ориентированных схем и AI-контроллеров. Показаны преимущества и ограничения каждого подхода при динамичных и гетерогенных нагрузках. Авторский вклад заключается в разработке типологии «шесть уровней балансировки» (L4 → AI-контроллер) и decision-tree-схемывыбора стратегии под заданные KPI. На основе открытых бенчмарков и практических кейсов (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB) продемонстрировано, что прогнозные модели LSTM + DQN снижают p99-latency до 30%, а SDN-контроллеры сокращают задержку в распределённых кластерах на 15–25%. Сделан вывод о необходимости многоуровневой архитектуры LB, объединяющей глобальное сетевое управление, локальные proxy-решения и автоматическое масштабирование, а также о перспективах green balancing и энерго-/стоимостной оптимизации.<br />Effective load balancing in microservice cloud applications is a key factor in platform performance (latency, throughput) and scalability. The article systematises traffic distribution methods: from classic algorithms (Round Robin, Least Connections) to decentralised client balancing (Service Mesh), SDN-oriented schemes, and AI controllers. The advantages and limitations of each approach under dynamic and heterogeneous loads are shown. The author's contribution lies in the development of a typology of "six levels of balancing" (L4 → AI controller) and a decision tree scheme for selecting a strategy for given KPIs. Based on open benchmarks and practical cases (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB), it is demonstrated that LSTM + DQN predictive models reduce p99 latency by up to 30%, while SDN controllers reduce latency in distributed clusters by 15–25%. The conclusion is drawn about the necessity of a multi-level LB architecture that combines global network management, local proxy solutions, and automatic scaling, as well as the prospects for green balancing and energy/cost optimisation.<br />Международный научно-исследовательский журнал, Выпуск 8 (158) 2025 |
|---|---|
| DOI: | 10.60797/irj.2025.158.27 |
Nájsť tento článok vo Web of Science