Методы балансировки нагрузки между микросервисами в облачной среде

Gespeichert in:
Bibliographische Detailangaben
Titel: Методы балансировки нагрузки между микросервисами в облачной среде
Verlagsinformationen: ООО Цифра, 2025.
Publikationsjahr: 2025
Schlagwörter: микросервисы, масштабируемость, cloud computing, load balancing, service mesh, green balancing, машинное обучение, security-aware load balancing, облачные вычисления, SDN, microservices, machine learning, edge computing, serverless, балансировка нагрузки, производительность, performance, scalability
Beschreibung: Эффективная балансировка нагрузки в микросервисных облачных приложениях — ключевой фактор производительности (latency, throughput) и масштабируемости платформы. Статья систематизирует методы распределения трафика: от классических алгоритмов (Round Robin, Least Connections) до децентрализованной клиентской балансировки (Service Mesh), SDN-ориентированных схем и AI-контроллеров. Показаны преимущества и ограничения каждого подхода при динамичных и гетерогенных нагрузках. Авторский вклад заключается в разработке типологии «шесть уровней балансировки» (L4 → AI-контроллер) и decision-tree-схемывыбора стратегии под заданные KPI. На основе открытых бенчмарков и практических кейсов (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB) продемонстрировано, что прогнозные модели LSTM + DQN снижают p99-latency до 30%, а SDN-контроллеры сокращают задержку в распределённых кластерах на 15–25%. Сделан вывод о необходимости многоуровневой архитектуры LB, объединяющей глобальное сетевое управление, локальные proxy-решения и автоматическое масштабирование, а также о перспективах green balancing и энерго-/стоимостной оптимизации.
Effective load balancing in microservice cloud applications is a key factor in platform performance (latency, throughput) and scalability. The article systematises traffic distribution methods: from classic algorithms (Round Robin, Least Connections) to decentralised client balancing (Service Mesh), SDN-oriented schemes, and AI controllers. The advantages and limitations of each approach under dynamic and heterogeneous loads are shown. The author's contribution lies in the development of a typology of "six levels of balancing" (L4 → AI controller) and a decision tree scheme for selecting a strategy for given KPIs. Based on open benchmarks and practical cases (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB), it is demonstrated that LSTM + DQN predictive models reduce p99 latency by up to 30%, while SDN controllers reduce latency in distributed clusters by 15–25%. The conclusion is drawn about the necessity of a multi-level LB architecture that combines global network management, local proxy solutions, and automatic scaling, as well as the prospects for green balancing and energy/cost optimisation.
Международный научно-исследовательский журнал, Выпуск 8 (158) 2025
Publikationsart: Article
Sprache: Russian
DOI: 10.60797/irj.2025.158.27
Rights: CC BY
Dokumentencode: edsair.doi...........8bb51afb520b24fb57ef1d8657cfc52a
Datenbank: OpenAIRE
Beschreibung
Abstract:Эффективная балансировка нагрузки в микросервисных облачных приложениях — ключевой фактор производительности (latency, throughput) и масштабируемости платформы. Статья систематизирует методы распределения трафика: от классических алгоритмов (Round Robin, Least Connections) до децентрализованной клиентской балансировки (Service Mesh), SDN-ориентированных схем и AI-контроллеров. Показаны преимущества и ограничения каждого подхода при динамичных и гетерогенных нагрузках. Авторский вклад заключается в разработке типологии «шесть уровней балансировки» (L4 → AI-контроллер) и decision-tree-схемывыбора стратегии под заданные KPI. На основе открытых бенчмарков и практических кейсов (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB) продемонстрировано, что прогнозные модели LSTM + DQN снижают p99-latency до 30%, а SDN-контроллеры сокращают задержку в распределённых кластерах на 15–25%. Сделан вывод о необходимости многоуровневой архитектуры LB, объединяющей глобальное сетевое управление, локальные proxy-решения и автоматическое масштабирование, а также о перспективах green balancing и энерго-/стоимостной оптимизации.<br />Effective load balancing in microservice cloud applications is a key factor in platform performance (latency, throughput) and scalability. The article systematises traffic distribution methods: from classic algorithms (Round Robin, Least Connections) to decentralised client balancing (Service Mesh), SDN-oriented schemes, and AI controllers. The advantages and limitations of each approach under dynamic and heterogeneous loads are shown. The author's contribution lies in the development of a typology of "six levels of balancing" (L4 → AI controller) and a decision tree scheme for selecting a strategy for given KPIs. Based on open benchmarks and practical cases (Netflix Zuul 2, AWS ALB, Google Cloud L7 LB), it is demonstrated that LSTM + DQN predictive models reduce p99 latency by up to 30%, while SDN controllers reduce latency in distributed clusters by 15–25%. The conclusion is drawn about the necessity of a multi-level LB architecture that combines global network management, local proxy solutions, and automatic scaling, as well as the prospects for green balancing and energy/cost optimisation.<br />Международный научно-исследовательский журнал, Выпуск 8 (158) 2025
DOI:10.60797/irj.2025.158.27