Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: https://tede2.pucrs.br/tede2/handle/tede/10326
Tipo do documento: Tese
Título: Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
Autor: Meyer, Vinícius 
Primeiro orientador: De Rose, Cesar Augusto Fonticielha
Resumo: Computing systems continue to evolve to facilitate increased performance when processing workloads in large data centers. Virtualization technology enables multiple applications to be created and executed on a single physical computer, yielding various advantages, including rapid provisioning of resources and better utilization of hardware. Cloud computing providers have adopted this strategy to use their infrastructure more efficiently, reducing energy consumption. However, our research in this field has shown that multiple cloud services contending for shared resources are susceptible to crossapplication interference, which can lead to significant performance degradation and consequently an increase in the number of broken service level agreements (SLA). Nevertheless, state-of-the-art resource scheduling in virtualized environments still relies mainly on resource capacity, adopting heuristics such as bin-packing, thus overlooking this source of overhead. But in recent years interference-aware scheduling has gained traction, and applications are now being classified based on their interference level and the proposal of static cost models and policies for scheduling co-hosted cloud applications. Preliminary results in this area already show a considerable improvement in the reduction of broken SLAs, yet we strongly believe that there are still opportunities to improve in the areas of application classification and dynamic scheduling strategies. Therefore, this work’s primary goal is to study the behavior of cloud applications’ interference profiles over their entire life cycle, and their susceptibility to workload variations, looking for opportunities to improve resource sharing in virtualized environments with novel dynamic scheduling strategies. To this end, we explored some specific research questions related to the dynamic nature of the process, such as: How can applications be classified based on resource interference in real-time? When should classifications be executed? How many levels should be used? When should they be scheduled? What are the trade-offs with migration cost? To answer all of these questions, we created an interference-aware scheduling architecture that integrates the aforementioned topics to better manage dynamic latencysensitive workloads in virtualized environments. The contributions of this study are: (i) an analysis of the impact of workload variations in the interference profile of cloud applications; (ii) a precise and optimized way to classify applications in real-time; (iii) a novel dynamic interference-aware scheduling strategy for cloud applications; and (iv) a dynamic architecture that combines the above techniques to deliver efficient interference-aware scheduling in virtualized environments. Our results show an average 25% improvement of overall resource utilization efficiency with our architecture compared to related studies.
Abstract: Os sistemas de computação continuam a evoluir para facilitar o aumento do desempenho ao processar cargas de trabalho em grandes data centers. A virtualização é uma tecnologia que permite que vários aplicativos sejam executados em um único computador físico, gerando várias vantagens, incluindo rápido provisionamento de recursos e melhor utilização de hardware. Os provedores de computação em nuvem adotam essa estratégia para usar sua infraestrutura de forma mais eficiente, reduzindo o consumo de energia. Apesar disto, nossas pesquisas na área têm mostrado que vários serviços em nuvem competindo por recursos compartilhados são suscetíveis à interferência entre aplicativos, o que pode levar a uma degradação significativa do desempenho e, consequentemente, a um aumento de quebras no número de acordos de nível de serviço. No entanto, o escalonamento de recursos de última geração em ambientes virtualizados ainda depende principalmente da capacidade dos recursos, adotando heurísticas como o bin-packing, ignorando essa fonte de sobrecarga. Mas, nos últimos anos, o escalonamento com reconhecimento de interferência ganhou força, com a investigação de maneiras de classificar os aplicativos em relação ao seu nível de interferência e a proposta de modelos estáticos e políticas para o escalonamento de aplicativos co-hospedados em nuvem. Os resultados preliminares nesta área já mostram uma melhoria considerável na redução de quebra de SLAs, mas acreditamos fortemente que ainda existem oportunidades de melhoria nas áreas de classificação de aplicações e estratégias de escalonamento dinâmico. Portanto, o objetivo principal deste trabalho é estudar o comportamento dos perfis de interferência dos aplicativos em nuvem ao longo de todo o seu ciclo de vida e sua suscetibilidade às variações da carga de trabalho, em busca de oportunidades para melhorar o compartilhamento de recursos em ambientes virtualizados com novas estratégias de escalonamento dinâmico. Para tanto, exploramos algumas questões específicas de pesquisa relacionadas à natureza dinâmica do processo, tais como: Como classificar aplicações baseadas na interferência de recursos em tempo real? Quando as classificações devem ser executadas? Quantos níveis devem ser usados? Quando devem ser escalonados? Quais são as compensações com o custo de migração? Para responder a todas essas perguntas, criamos uma arquitetura de escalonamento com reconhecimento de interferência que integra esses tópicos mencionados para lidar com cargas de trabalho dinâmicas sensíveis à latência em ambientes virtualizados. As contribuições deste estudo são: (i) uma análise do impacto das variações da carga de trabalho no perfil de interferência de aplicativos em nuvem; (ii) uma forma precisa e otimizada de classificar aplicativos em tempo real; (iii) uma nova estratégia de escalonamento com reconhecimento de interferência dinâmica para aplicativos em nuvem; e (iv) uma arquitetura dinâmica que combina as técnicas acima para entregar um escalonamento eficiente com reconhecimento de interferência em ambientes virtualizados. Os resultados evidenciaram que nossa arquitetura melhorou em média 25% a eficiência geral de utilização de recursos quando comparada com estudos relacionados.
Palavras-chave: Interference-aware Scheduling
Dynamic Latency-sensitive Workloads
Machine Learning
Resource Management
Cloud Computing
Simulation
Escalonamento Ciente de Interferência
Cargas de Trabalho Dinâmicas Sensíveis à Latência
Aprendizado de Máquina
Gerenciamento de Recursos
Computação em Nuvem
Simulação
Área(s) do CNPq: CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO
Idioma: eng
País: Brasil
Instituição: Pontifícia Universidade Católica do Rio Grande do Sul
Sigla da instituição: PUCRS
Departamento: Escola Politécnica
Programa: Programa de Pós-Graduação em Ciência da Computação
Tipo de acesso: Acesso Aberto
Restrição de acesso: Trabalho não apresenta restrição para publicação
URI: https://tede2.pucrs.br/tede2/handle/tede/10326
Data de defesa: 21-Mar-2022
Aparece nas coleções:Programa de Pós-Graduação em Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
VINICIUS_MEYER_TES.pdfVINICIUS_MEYER_TES1,13 MBAdobe PDFThumbnail

Baixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.