Castanhas a partir do fundo do côncava circular não-Temple
Qubit produzido | número Público QbitAI
Na semana passada, almíscar (Elon Musk) acaba levou um especialistas públicas AI, assinaram uma carta de compromisso.
Conteúdo nunca é desenvolvido arma do crime auto (Letais autónomas Sistemas de armas).
Há duas razões. Em primeiro lugar, devem as rédeas para as máquinas. Em segundo lugar, a presença de AI armas mortais, países e indivíduos irão suportar o risco de agitação.
intenção natural é bom, mas os estudiosos em Oxford University Mariarosaria Taddeo (referido como Mary) disse que eles Ele ignora um ponto importante .
Além disso, os olhos das pessoas focada no 'assassino AI', pessoas mais difícil Notado que o ponto.
robôs inteligentes governam o mundo, dominado por seres humanos, tais extreme Scene Realmente muito emocionante.
Mas isso não é os únicos riscos de tecnologia AI.
As forças dos EUA ter colocado AI é dividido em dois: primeiro, móvel O (AI em movimento), e segundo, estático O (AI em repouso).
O primeiro representa depender entidade Robot A IA, que representa apenas presente em sistema de software A AI.
navios de guerra da Marinha dos EUA tem piloto automático, auto-reconhecimento Israel, drones alvo hit de reprodução automática, estes equipamentos militares no AI, é móvel.
Mas a guerra não é a única cabeça, por exemplo, World Network (Cyber Space) nunca será paz.
Mary sentiu que o último é mais necessidade de atenção, "estática" também é Não significa que não é perigoso .
Rede do mundo, grandes e pequenas disputas internacionais que podem acontecer todos os dias.
Em março, os Estados Unidos condenaram a Rússia, dizem os outros meses, os Estados Unidos tem sido crítico do ataque infra-estrutura .
Neste caso, as coisas não são tão simples grab WannaCry Bitcoin.
Se alguém pode tirar vantagem da AI, causando um apagão nacional, ou a paralisia sistema de aquecimento, que poderia levar a consequências muito graves.
falta de energia não é trivial
Embora ainda não encontrou um resultado direto da AI danos físicos O evento, mas isso não significa que não haverá mais tarde. Afinal, AI é rápida propagação.
Mary disse que o funcionamento da sociedade O mais dependente O conflito entre a AI, sistema O mais provável Traga dano físico.
Entre AI e AI, com o combate independente, age de auto-defesa, mesmo se nenhum robô física, a situação estava fora de controle.
Agora, muitos países estão estabelecendo sua própria defesa rede AI.
Maria disse: " Rede de corrida armamentista (Do Cyber Arms Race) "pode estar prestes a começar.
No entanto, a defesa eo ataque, única linha fina .
Agora, os regulamentos ainda não internacionais, para regular a defesa da rede de comportamento (ciberdefesa).
Já em 2004, a Organização das Nações Unidas configurado Grupo de Segurança da Informação de Peritos Governamentais (Grupo de Peritos Governamentais em Segurança da Informação), o objetivo é chegar a um consenso sobre um estatuto uniforme para regular a conduta dos Estados em ciberespaço.
No entanto, ele vai abrir um monte de vezes, não chegaram a um consenso para este dia.
Em abril, Mary um artigo publicado na revista Nature. Ela escreve para a defesa da rede de três etapas -
primeiro passo Delinear os limites da lei.
A segunda etapa Entre a nações amigas, estratégia de defesa de teste.
A terceira etapa Estabelecer mecanismos reguladores para reforçar a implementação de leis e regulamentos.
Ela deu a cada passo, retratando algumas suposições razoáveis.
No entanto, não sabemos neste dia mundial dar o primeiro passo.
artigo da Nature Portal:
https://www.nature.com/magazine-assets/d41586-018-04602-6/d41586-018-04602-6.pdf
- completo -
recrutamento sincero
Qubits estão recrutando editor / repórter, com sede em Zhongguancun de Beijing. Esperamos talentosos, estudantes entusiasmados para se juntar a nós! Detalhes, por favor qubit número público da interface de diálogo (QbitAI), responder palavra "recrutamento".
qubit QbitAI · manchetes sobre a assinatura de
' ' rastrear novas tecnologias e produtos AI dinâmicos