Anne do fundo do recesso não-Temple
Qubit produzido | número Público QbitAI
Chen Tianqi
Ontem, a TVM autor, XGBoost, máquina de cxxnet ferramenta de aprendizagem Chen Tianqi anunciou que a Universidade de Washington, onde seu recém-criado um laboratório, organização de codinome "SAML".
Chen Tianqi I introduzido no micro-Bo disse, o laboratório terá sistemas, a equipe de arquitetura, aprendizado de máquina e programas de linguagem integrada para promover as quatro direções de hardware co-design e projetos de código aberto, tais como pesquisa e profundidade TVM algoritmo de aprendizagem do sistema.
screenshots microblogging Chen Tianqi
Por Universidade de Washington queria construir o laboratório? No projeto SAML Casa, encontramos a resposta.
Queremos resolver nova programação desafios, rede, armazenamento e aspectos de programação do abstrato, podem beneficiar da construção de novo sistema escalável sistema de hardware, aumentando o processamento de dados disponível. É importante ressaltar que os futuros modelos e algoritmos e hardware necessário para projetar, hardware em nível de sistema e elementos de software obrigados a informar desígnio de pilha.
Precisamos estabelecer um comum, a utilização de infra-estrutura reutilizável, e criar sistemas mais inteligentes. Atualmente, esses desafios e questões relacionadas com áreas de ciência da computação de pesquisa.
Consequentemente, SAML sair.
Simplificando, esta é uma máquina de aprendizagem equipe de pesquisa interdisciplinar para explorar Cross-sistema Pilha de problemas multi-nível, incluindo a aprendizagem profunda estrutura, formação e inferência de hardware dedicado, uma nova representação intermediária, programação diferenciada e com uma variedade de aplicações.
Atualmente, existem quatro pesquisas de laboratório.
uma direção modelo sequência especializada (Sequential modelo de especialização) , Cascata Adaptive através do modelo de profundidade para o vídeo de classificação rápida.
Os pesquisadores propõem uma cascata de arquitetura classificador barato, e demonstrou ser altamente quando a distribuição das espécies tende a um pequeno conjunto de classes, esta taxa modelo de precisão especializada é relativamente alta.
modelo de arquitetura especializado
projeto PHub segundo Direção, incluindo a investigação de forma eficiente distribuídos parâmetros do servidor profundidade de treinamento da rede neural.
Os trabalhos de pesquisa da Universidade de Washington e Microsoft Research Parâmetro Hub: servidores de alto desempenho de parâmetros para Eficiente distribuído profunda Neural Rede de Formação é baseado no equilíbrio explorar os parâmetros de design do servidor.
Papers endereço:
terceiro Chen Tianqi direção equipa TVM pilha-base, a pesquisa de ponta a profundidade aplicado à otimização de aprender pilha.
Em agosto passado, quando Chen Tianqi TVM liberação causou uma maré alta na discussão indústria, o ponto popular, é um modelo para estudar a distribuição em profundidade para uma ampla variedade de dispositivos de hardware, solução de ponta a ponta que inclui os seguintes componentes:
papéis relacionados abordar:
https://arxiv.org/abs/1802.04799
finalmente Um projeto também está relacionada com Chen Tianqi, projeto XGBoost é um sistema de melhoria árvore eficiente, flexível e escalável, para conseguir um algoritmo de aprendizado de máquina, no âmbito do gradiente reforçada.
papéis relacionados abordar:
https://arxiv.org/abs/1603.02754
Atualmente, os participantes do programa são da Universidade de Washington, faculdade, pós-graduação e alunos de graduação por Sampa, Syslab, modo e componentes de laboratório plse.
Finalmente, com um endereço residencial do projeto -
- completo -
recrutamento sincero
Qubits estão recrutando editor / repórter, com sede em Zhongguancun de Beijing. Esperamos talentosos, estudantes entusiasmados para se juntar a nós! Detalhes, por favor qubit número público da interface de diálogo (QbitAI), responder palavra "recrutamento".
qubit QbitAI · manchetes sobre a assinatura de
' ' rastrear novas tecnologias e produtos AI dinâmicos