[Pesado] Oxbridge analisar maliciosos dez pecados AI, 26 especialistas afirmam que a ameaça de aumento acentuado em cinco anos

 Ji-won novo relatório

Autor: Wen Fei, parece muito, sete pequenos

[REVIEW New Ji-won 26 dos 14 grandes instituições como Cambridge, Oxford OpenAI, emitido conjuntamente um relatório de uma centena de "prever, prevenir uso malicioso mitigar da inteligência artificial", com base no estado atual de técnicas de IA para investigar a ameaça de uso malicioso de técnicas de IA pode trazer , com foco na máquina de técnicas de aprendizagem de agora e nos próximos cinco anos, e isso proporciona um método para prevenir e mitigar essas ameaças.

A tradução de máquina para identificar imagens médicas, AI, sem dúvida, trouxe uma série de bem-estar. No entanto, uma vez que a inteligência artificial nas mãos erradas, veículos aéreos não tripulados irá tornar-se um míssil, falso vídeo começa a manipular a opinião pública, será automaticamente ataques de hackers incontáveis ...... Destes, apenas parte do risco potencial de desvio de AI.

Sobre a teoria AI ameaça, Hawking, Musk, que têm mais de uma discussão de alto nível, embora levou a ampla discussão entre o público, mas os pesquisadores AI e pessoal técnico aqui não tem sido uma forte reação. Uma grande razão é que essas ameaças AI / discussão super-inteligente muito longe, não ter plenamente em conta o estado actual da arte.

Recentemente, uma discussão vulnerabilidade AI, o relatório da AI escrito pelo homem acabou por AI especialista. 26 autores de Oxford, Cambridge, OpenAI, FEP e outras 14 instituições, que durou um ano, completou o blockbuster de 101 páginas deste relatório, em profundidade discussão sobre prever e prevenir uso malicioso da inteligência artificial. Devido aos avanços da tecnologia, grande rivalidade de poder, terrorista, forças separatistas, como o uso do lançamento de inteligência artificial altamente segmentado e ataque eficiente, a inteligência artificial está agora na vanguarda de um enorme negativo destrutivo.

O maior destaque do relatório é AI AI pessoa que escreveu o relatório : 26 autores, existem muitos profissionais de AI, a partir de um ponto de vista técnico, as preocupações nos próximos cinco anos, a tecnologia AI sendo presença abusado de riscos e resposta a ele sociais, económicos e outros. O relatório está questões muito práticas, muito interessante a considerar um desafio para os leitores de todos os pesquisadores e desenvolvedores de IA relatam que o problema é o povo AI agora precisam ser consideradas e tratadas. divulgações inclui também alguns problemas operacionais, tais como pesquisadores não deve esperar até depois de descobrir que a nossa abordagem, AI Progress foi relacionado, outros especialistas na área dão a oportunidade de um guarda.

Relatório completo:

https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf

O uso de AI, pessoas comuns podem realizar um ataque terrorista em grande escala

Os autores descrevem uma série de cenários possíveis, Incluindo terroristas bomba implantada limpeza robô, e trouxe-o em departamentos governamentais. Com sua visão construído máquina robô para rastrear um político particular, quando está perto do homem, a bomba vai detonar. Isso leva vantagem de alguns dos novos produtos AI (como limpeza robô), bem como a sua função autónoma (com base no rastreamento de visão de máquina).

Este é de cenários hipotéticos claro, mas se você realmente deseja implementar, não é impossível. as tropas americanas serão convertidos em uma máquina de matar precedentes máquina de detecção.

O rápido desenvolvimento da tecnologia AI, 5 anos, visão computacional, reconhecimento de imagem está além do tempo humano, e composição de imagem, desfocada 2.011-2.017 com, desenvolvimento rápido também experimentou foto-realista. portanto, Cinco anos mais tarde, o computador "reais" pode ser até que ponto, se abusados, as consequências serão como, Isso permite que ambos os pesquisadores e técnicos AI precisa começar agora a considerar.

Ao mesmo tempo, o sistema de AI de hoje, existem muitas lacunas, pequenas alterações colocar o gato identificado como guacamole, o que é mais, o 3D impressão de rifle identificação tartaruga. Se você realmente quer fazer, preto no sistema de controle automático de dirigir um carro, para o computador enganar no reconhecimento marco, os acidentes são resultado inevitável.

Nota: A linha superior é um poste de sinalização e os resultados de reconhecimento corretos, a seguinte linha é através de alguns meios, que o classificador da rede neural para produzir resultados erros de identificação.

popularidade mundial de robôs, física (armas automáticas) O abuso é particularmente digno de nota

relatório de segurança específica discute três tipos de cenários de abuso: Digital (tais como segurança de rede), física (como armas automáticas, ataques físicos) e políticos (como segredos de Estado). E descrever possíveis ameaças alterar estes domínios através de um exemplo representativo:

Entre eles, a discussão sobre a segurança física da AI é particularmente notável.

A segurança física

O uso de inteligência artificial para tarefas Automatize relacionados aos ataques de drones e outros sistemas físicos (por exemplo, através da implantação de sistemas de armas autônomas) podem expandir as ameaças associadas a estas ameaças. A destruição física dos sistemas de rede de novos ataques (por exemplo, resultar em um acidente de veículo automático) envolvendo sistema de comando física ou remota viável (por exemplo, milhares de veículos aéreos não tripulados em miniatura) também é uma ameaça.

Nos últimos anos, aplicações para robôs (incluindo residenciais e comerciais) têm um mundial de crescimento, o número de robôs industriais em 2010 de 121.000 em 2015 aumentou para 254.000, o robô de limpeza (como limpeza robô) de largura para dentro de casa, alguns dos robôs de serviço high-end mais avançados também um grande aumento potencial (em 2015 robôs 41.000 serviços vendidos no mundo, 54 milhões dos quais é pessoal e uso doméstico). Nos Estados Unidos, 2016 e 2017, dois veículos aéreos não tripulados registrados no lar têm registado 670.000 unidades. Não só isso, as empresas a desenvolver aviões de carga não tripulada, incluindo chão correndo e voando pelo ar.

Tudo isto faz-nos aumentar significativamente o número de robôs em torno enquanto formando três grandes tendência clara:

  • Os seres humanos ao redor do robô, incluindo robôs de entretenimento, braços do robô e robô humanitária, o número de crescimento, tornou-se uma tendência global;

  • Ampla e diversificada gama de atividades e aplicação destes robôs, da câmera para realizar ataques terroristas;

  • Atualmente, a maioria dessas máquinas ainda exigem a participação humana na operação ou assistida, mas a participação humana está sendo reduzida, veículos aéreos não tripulados, especialmente, algumas espécies pode ter sido feito de vôo automaticamente estável e executar tarefas ao longo de um período de tempo mais longo.

  • Assim, AI segurança física de todo o ambiente também houve pequena mudança. Entre eles, O ponto mais preocupante é que a pessoa média ou grupo pode controlar o robô para realizar ataques Estes ataques podem ser menos típico (e, por conseguinte, difícil de evitar), mas maiores danos causados, tal como em massa disparos efectuados pelos parasitas multidão, ou vazamento de gases tóxicos e / ou líquidos.

    Além disso, com o digital (rede) de ataque diferente, os ataques do mundo físico pode acontecer em qualquer lugar, sem nó especiais (como o hub da rede, este nó Google e outras grandes empresas de tecnologia são capazes de participar do controle), mais difícil de evitar.

    Atualmente, tanto as leis e regulamentos ou de pesquisa de tecnologia de defesa relacionado, o progresso tem sido lento para responder à proliferação global de robôs armados. No caso de rápido desenvolvimento e popularização do atual hardware, software e habilidades, dizem os autores do relatório, Um atacante ligeiramente habilidades ( "moderadamente talentosos), o uso de implementação AI de um ataque terrorista há pouca obstáculo .

    Os autores observam que eles esperam no futuro próximo para ver a diferença entre a capacidade de atacar e capacidades de defesa alargamento. Melhorar o desempenho do independente da máquina, o que significa o uso de robôs, bem como o reconhecimento software open source rosto, de condução automática / software de navegação, grupos de controle multi-agente e assim por diante hardware e estrutura de software, uma única pessoa pode estar dentro de um intervalo maior (incluindo as pessoas normais não pode entrar na área, tais como zona tóxico, baixa visibilidade ambiente), realizado um ataque em grande escala (usar um grupo de robôs, ou robôs sequestrando IdC).

    Além disse no início da limpeza robô chegou às seguintes cenários, como é que vamos responder?

    organização de hackers do Leste Europeu, a técnica de aprendizado de máquina originalmente usado em defesa de um sistema de computador, utilizado para construir o malware mais poderoso. Este programa utiliza a tecnologia AlphaGo semelhante, continuam a descobrir e criar novas vulnerabilidades. Esta AI usos de malware aprendizagem de máquina para localizar automaticamente os nós-chave de rede, e para enganar o software de segurança existente pelo comportamento imitando humana. Um grande número de sistemas infectados milhões de pessoas forçadas a resgate de pagamento. Outra técnica tentaram resistir a tais ataques, e em última análise, ser utilizado para aumentar ainda mais o malware agressivo.

    Isto é típico da maioria das aplicações de segurança digital, por exemplo.

    Estudo de caso: Segurança Digital (phishing para roubar informações), segurança política (manipulação de vídeo, ouvir privacidade) Abuse

    Segurança Digital

    AI uso para tarefas Automatize envolvidos em ataques cibernéticos irão facilitar o trade-off existente entre tamanho e eficácia do ataque. Isto poderia comprometer a expansão da rede relacionada com o ataque de trabalho intensivo (tais como phishing lança). Para phishing exemplo: vítimas recebem informações sobre criminosa cuidadosamente projetado para induzi-los a revelar suas informações de segurança.  A AI pode automatizar grande parte deste crime, acesso à informação e, em seguida, gera uma mensagem através de redes sociais e profissionais da vítima.

    Por exemplo: Administrador de segurança robô de navegação de um edifício Facebook durante o expediente, ela viu um anúncio de um conjunto de trem de modelo, clique e download de uma brochura. Ela não sabia, brochuras infectados com software malicioso. Os criminosos usam técnicas de IA para descobrir os detalhes de seu público, ela é um entusiasta do modelo do trem, e projetou o folheto para ela. Quando a abriu, ele permite que um hacker para espioná-la da máquina e obter o nome de usuário e senha de um sistema de segurança do edifício, para controlar o sistema de segurança.

    Além disso, o uso de fraqueza humana (por exemplo, usando a síntese de voz através da personificação), vulnerabilidades de software existentes (por exemplo, por pirataria automático), ou vulnerabilidades sistema de IA (e.g., intoxicação por exemplos antagonismo e dados) de novos ataques.

    Ou phishing, por exemplo, a inteligência artificial não só ser usado para gerar e-mail e mensagens de texto, mas também para áudio e vídeo falsificado. Vimos que depois de aprender uma gravação minutos discurso poucos, AI é usado para imitar o som.

    Político e de Segurança

    AI uso para tarefas Automatize (tais como análise de dados de uma grande coleção de) envolvia o monitoramento, para convencer (como a criação de publicidade direcionada) e engano (como vídeo manipulando) pode ser expandida com a invasão de privacidade e manipulação social. O novo ataque para aproveitar a capacidade de melhorar a análise do comportamento humano, emoções e crenças com base em dados existentes. A mais significativa dessas preocupações no contexto de países autoritários, mas também pode comprometer a capacidade de manter o debate público democracia real.

    Por exemplo: Um homem foi ataques cibernéticos desenfreada contra a inação do governo e raiva, inspirado por notícias, ele estava determinado a fazer alguma coisa, a busca é para interromper mensagens relacionadas à segurança pública, ordenando materiais sinais do protesto, e até mesmo comprar alguns bomba de fumaça que ele pretendia usar em um discurso após funcionários do governo abrir. No dia seguinte, a polícia aparece em seu escritório e disse-lhe "Predictive sistema de conflito civil" Verificou-se que ele era uma ameaça potencial, ele foi algemado a uma licença.

    4 grandes prioridades futuras pesquisas: a explorar uma maior variedade de métodos de pesquisa abertos

    Além descrevendo a ameaça de que poderia acontecer, o relatório também fez várias recomendações:

    1. artificiais praticantes de inteligência deve reconhecer o seu trabalho, há a possibilidade de abuso.

    2. formuladores de políticas devem trabalhar em estreita colaboração com o pessoal de inteligência artificial, compreender os riscos.

    comunidade 3.AI precisa aprender com especialistas em segurança sobre a melhor forma de proteger seus sistemas.

    4. A necessidade de desenvolver e seguir uma estrutura ética da inteligência artificial.

    5. comunidade precisa participar da discussão. A inteligência artificial não é apenas cientistas e decisores políticos, incluindo também especialistas em ética, empresários eo público.

    Além disso, o relatório também recomenda explorar várias questões pendentes e potenciais intervenções em quatro áreas prioritárias de investigação:

    aprender juntos e comunidade de segurança de rede. No cruzamento de ataques de segurança de inteligência artificial e de rede, o relatório sublinha a necessidade de explorar o potencial perigo, a divulgação responsável de vulnerabilidades AI, ferramentas de segurança de atualização e hardware de segurança.

    explorar o modo aberto diferente. Com a natureza AI e ML dupla utilização torna-se aparente, o relatório sublinhou a necessidade de re-imaginar normas e instituições ao redor do estudo aberto, avaliação de risco antes da primeira tecnologia aberta em áreas de interesse particular podem ser tomadas para o modelo de acesso central de licenciamento, sistema de partilha é propício para um círculo virtuoso de outras tecnologias de dupla utilização segurança e protecção, e.

    promover uma cultura de responsabilidade. pesquisadores da inteligência artificial e seu emprego está em uma posição única para moldar a situação de segurança no mundo da inteligência artificial. O relatório sublinha a importância da educação, enunciados morais e normas, estruturas, normas e expectativas devem ser reforçadas.

    Desenvolver soluções técnicas e políticas. Além disso, o aumento do número de prometer intervenções tecnológicas e políticas, técnicas de inteligência artificial pode ajudar a construir um futuro mais seguro. Áreas seniores para futuras pesquisas incluem proteção de privacidade, a coordenação da segurança pública uso AI.

    14 agências, 26 do conjunto 100 de trabalho para concluir o relatório

    Este relatório juntos para completar os 26 autores de Oxford, Cambridge, OpenAI outras 14 agências, o que mostra a importância deste relatório.

    O relatório, em eloqüente, revelam uma urgente: por favor, a comunidade, discussão multi-ponto, mais ação e mais

    Xinjiang, também vai comer novamente.
    Anterior
    Oito anos, quando a mãe quer que o filho, só para tocar sua imagem ......
    Próximo