Nuvem elemento de rede virtual: o método de implementação de tecnologia mainstream atual

Autor Lijun Wu

Como a virtualização (KVM semelhante / Xen, etc.) ocorre, os nós de computação (nós de servidor de máquina virtual) da máquina virtual e o pacote de rede física para a dissociação servidor centro de dados apareceu Vxlan / NvGre outras tecnologias de rede de sobreposição e tráfego dentro de uma máquina virtual de computação mensagem nós nos nós de computação a ser tratado um número de elementos de rede virtuais para implementar a segurança de porta, de segurança grupo, de firewall, de encaminhamento L2, L3 encaminhamento (incluindo encaminhamento distribuído), política de encaminhamento, o encaminhamento de NAT, etc. caminho de processamento de superfície. Do ponto de vista da indústria da tecnologia existente, incluindo o encaminhamento de modo kernel, encaminhando modo de usuário, várias formas principais de cartões de rede inteligente.

Os seguintes detalhes ao lado

NAPI votação, interromper, DPDK ou consumir CPU, pertence ao X86 pensamento, desempenho ou dependem de hardware;

Linux núcleo elemento compreende modo de encaminhamento de rede normalmente visto dispositivo de torneira / tun, linuxbridge (LinuxIptables comumente associados, vethpair etc), o OpenvSwitch kernel, espaço de nomes, ligação e outras formas, para dar os primeiros poucos versão OpenStack implementos componente de rede espinha dorsal aberto para Neutron , o dispositivo de torneira pelo VM como um adaptador de rede virtual, e, em seguida, o filtro Linuxbridge alcançar a segurança e firewall grupo Iptables, L2 tratamento implementadas em OpenvSwitch, e, em seguida, aplicar encaminhamento característica espaço de nomes NAT da pilha de protocolos, a final encapsulado agrupamento de cabeçalho underlay tipicamente seleccionado boca ligação NIC física pelo hospedeiro.

O principal problema dos principais modo kernel módulos do kernel de encaminhamento, além de grande fluxo de processamento, complexo, resultando em muitos dos módulos sem ter que lidar com o aumento da largura de banda de transmissão de latência reduzida, há uma série de fatores que afetam o desempenho: Linux kernel do NIC é geralmente pacotes transceptor interrompidos, dados do cartão para o núcleo e, em seguida, após a transferência para a máquina virtual, para dentro, para passar por várias cópias de dados, e em que mais mecanismos de bloqueio envolvidas no interruptor de processo e de contexto do modo de utilizador para o modo de núcleo, estes factores são de difícil completamente em modo de núcleo otimização.

A análise fundamental, física placa de rede camada desta forma é para receber pacotes de fazer diferentes configurações de acordo com o nó de cálculo ou nó de rede, mas a convergência de nós de computação e nós de rede agora levaram à interrupção sem sentido a força, embora alguns drivers da placa de rede Linux NAPI também é fornecida desta maneira, mas de sondagem e comutador de interrupção irá inevitavelmente levar a uma sobrecarga, e não há pacotes subsequentes em modo kernel pilha de protocolo com o desempenho optimizado é ainda limitada.

RDONeutron um diagrama de topologia da FIG.

(Http://rdoproject.org/networking/networking-in-too-much-detail/)

Intel introduzido mais tarde pela ascensão da computação em nuvem com base no conceito transceptor DPDK pacote modo do usuário ( para resolver o modo kernel forwarding gargalo, o transceptor compreende uma técnica de pesquisa revestido com, fila de livre-lock, uso de memória página grande, copiar dados de controle e meios de processamento de modo de usuário cooperativa de multi-core para melhorar o desempenho, a versão baseada OpenvSwitch também modo de usuário Dpdk; DPDK disso, há outro modo de abertura FD.io usuário de encaminhamento implementada, balanceador de carga do Google grupo levitação magnética (https://www.infoq.com/news/2016/03/google-maglev) baseado LVS + DPDK carga equilibrador (https://zhuanlan.zhihu.com/p/24826649) mostrou US um forte desempenho.

No entanto, os utilizadores têm a ocupar modo de encaminhamento separado NIC condutor apoio DPDK (Embora haja várias placas de rede DPDK DPDK e foi transportado para uma variedade de processadores, tais como o braço / PowerPC, etc), e a pilha de modo de utilizador do kernel Linux pilha de protocolos em relação ao mais extremamente incompleto (a indústria na reivindicação produtos de código fechado 6Wind ter um completo, Tencent baseado no BSD uso fstack open-source), o que faz com que a pilha do kernel Linux não podem ser encaminhadas modo de usuário completamente substituído, embora a rede VM única L2 / L3 / LCA / NAT processamento como os quatro seguintes, mas depois de um grande número de diferentes protocolos de gestão da rede a ser usado; e no cenário recipientes se o modo de encaminhamento de utilizador residente, estado de tráfego de contentores da pilha de protocolo de utilizador terá uma certa exige.

Além disso, DPDK ainda usar o encaminhamento de CPU do servidor de capacidade, necessidade de ocupar uma CPU específica, mas também com o desenvolvimento da rede física 25G / 100G, a necessidade de tomar mais e mais nuclear, também irá trazer o mesmo tipo de servidor é após modo de usuário de encaminhamento pode ser utilizado pela máquina virtual ocupada questão nuclear do número de núcleos, porque VM pode usar para alterar os recursos, é susceptível de conduzir a uma especificação de máquina virtual originalmente planejado não ocupam recursos de CPU de servidor completa desperdiçado, mas irá ajustar o sabor com ao planejamento familiar e interface de usuário problemas de renderização.

Figura II VM encaminhamento diagrama de topologia no modo de utilizador cada (

O acima de duas maneiras de considerar o servidor de rede física ainda não há ajustamento dos dois regimes, se a rede física pode ser ajustada, pode ser disposta uma pluralidade SR-IOV NIC de VF, VF e cada configuração diferente como VM VLAN porta virtual, o programa servidor de rede interno que é simples, muito alto desempenho encaminhamento avião, e pode ser usado para maximizar os servidores de computação de CPU, mas as altas demandas sobre os dispositivos de rede físicos (principalmente dispositivos RPT): interruptor de suporte portas cabelo pinos de outro modo o mesmo hospedeiro com a máquina virtual arrendatário pode não L2 / L3 encaminhamento, as necessidades do interruptor para suportar L2 / L3 / roteamento / NAT e outras características (Broadcom chip tem um suporte NAT correspondente), de modo que a necessidade de novos servidores e equipamentos de comutação para reconstruir a rede de centros de dados, este certamente não beneficiar o antigo servidor eo switch, resultando em uma perda de equipamentos existentes com grande investimento e equipamentos novos adquiridos. E interruptores suportam tipicamente de contrack não pode suportar, e comutador virtual distribuído com o arrendatário confidencial ajustar a rede, o que resulta no acoplamento de rede física e virtual, controle superfícies de interface plataforma SDN nuvem para controlo da configuração de rede automatizar para ajustar estes controlos para plataformas de nuvem de encaixe SDN características e desempenho superfícies de controle controlador de SDN têm grandes exigências físicas do equipamento.

FIG três SRIOV + Gancho de cabelo diagrama modo de topologia ( Interruptor

Para atingir hardware de alto desempenho com base na taxa de ocorrência de desacoplamento de rede e rede virtual / física, o cartão inteligente tornou-se um elementos de rede virtual flexibilidade e evitar a transformação do interruptor de hardware ponto de convergência de rede física. HPC da AWS divulgados documentos (seu cartão de ENA inteligente :: https //aws.amazon.com/cn/hpc/) e Azure da Microsoft.

(SmartNIC: Aceleração de Rede da Azure com FPGAs em servidores OCS) são uma solução parcial utiliza um cartão inteligente, a outra parte do cartão Mellanox e outros fornecedores também têm tráfego offload hardware NIC inteligente. Em seguida, suas superfícies de controle são baseados principalmente na auto-estudo ou normas OpenFlow, como protocolo de controle SDN sul, e outro hardware para recurso conveniente Contrack é a combinação de implementação pilha de protocolos do Linux kernel.

Figura IV Dados para Microsoft SmartNic

(Http://www.zdnet.com/article/linux-java-and-container-support-coming-for-microsofts-azure-microservice-platform/)

Tomados em conjunto, DPDK outro modo de usuário adequado apenas para nuvem privada para a frente / NFVI outro esquema de hardware e software de compra nuvem pública dissociação e uma parte do nó de rede (nó nuvem pública computação não é adequado para o formulário de encaminhamento DPDK tal implantação), e AWS indústria, Azure e computação em nuvem importantes fabricantes nacionais têm mostrado que esse desenvolvimento; kernel Linux pilha modo é bastante completa, é difícil de ser descartada e uma nova dispositivos de rede física para usar nenhuma volta virtual sob o controlador de SDN hairnet morfologia existem apenas em algumas cenas, enquanto o cartão inteligente é uma forma de hardware para obter um compromisso sobre todas as restrições e demandas, e para resolver a maioria dos problemas.

Autor:

Lijun Wu, microblogging Sina Pequim - Xiao Wu, autor de "computação em nuvem Pérolas de rede"; aspectos do interruptor de mais de três anos R & D experiência (familiar com fabricantes de chips Broadcom, Marvell, tais como processos de troca para a frente e protocolos de rede), agora em rede arquitetura de computação nuvem projeto trabalho.

Perfil Comunidade Cloud:

comunidade Nuvem foi fundada em 2014, a maior da nação plataforma de tecnologia de nuvem para compartilhar informações, experiências e tecnologias na implementação de computação / projeto de virtualização de nuvem, aderir a secar.

Ano Novo Chinês vermelho envelopes guerra cheia eclodiu, BAT e manchetes de hoje, que pode ganhar?
Anterior
campo Contraste de experiência quatro não tripulados lojas de conveniência: baixo limiar técnico não pagar bloqueado e nenhum serviço de almoço
Próximo