top of page

Princípios da IA

  • amisaka6
  • 14 de abr. de 2023
  • 3 min de leitura

Os princípios de IA Asilomar, coordenados pelo FLU e desenvolvidos na Conferência Beneficial AI 2017, são um dos primeiros e mais influentes conjuntos de princípios de governança de IA.


Esses princípios foram desenvolvidos em conjunto com a conferência Asilomar 2017 (vídeos aqui), através do processo aqui descrito.


A inteligência Artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas em todo o mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas próximas décadas e séculos.


Questões De Pesquisa

1) Objetivo da pesquisa: o objetivo da pesquisa em IA deve ser criar Não inteligência não direcionada, mas inteligência benéfica.


2) Financiamento de pesquisa: os investimentos em IA devem ser acompanhados de financiamento para pesquisas que garantam seu uso benéfico, incluindo questões espinhosas em Ciência da computação, economia, direito, ética e estudos sociais, como:


  • Como podemos tornar os futuros sistemas de IA altamente robustos, para que eles façam o que queremos sem funcionar mal ou serem hackeados?

  • Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e o propósito das pessoas?

  • Como podemos atualizar nossos sistemas jurídicos para serem mais justos e eficientes, para acompanhar o ritmo da IA e para gerenciar os riscos associados à IA?

  • Com qual conjunto de valores a IA deve estar alinhada e qual status legal e ético ela deve ter?

3) Vínculo ciência-política: deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.


4) Cultura de pesquisa: uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.


5) Evitar Corridas: as equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitar cortes nos padrões de segurança.


Ética e valores

6) Segurança: os sistemas de IA devem ser seguros e protegidos durante toda a sua vida útil operacional e verificáveis, quando aplicável e viável.


7) Transparência de falhas: se um sistema de IA causar danos, deve ser possível averiguar o porquê.


8) Transparência Judicial: qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória auditável por uma autoridade humana competente.


9) Responsabilidade: projetistas e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, mau uso e ações, com responsabilidade e oportunidade de moldar essas implicações.


10) Alinhamento de Valores: sistemas de IA altamente autônomos devem ser projetados para que seus objetivos e comportamentos possam ser assegurados para se alinhar com os valores humanos em toda a sua operação.


11) Valores Humanos: os sistemas de IA devem ser projetados e operados de modo a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.


12) Privacidade pessoal: as pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas de IA de analisar e utilizar esses dados.


13) Liberdade e Privacidade: a aplicação da IA aos dados pessoais não deve restringir injustificadamente a liberdade real ou percebida das pessoas.


14) Benefício compartilhado: as tecnologias de IA devem beneficiar e capacitar o maior número possível de pessoas.


15) Prosperidade compartilhada: a prosperidade econômica criada pela IA deve ser compartilhada de forma ampla, para beneficiar toda a humanidade.


16) Controle humano: os seres humanos devem escolher como e se delegar decisões aos sistemas de IA, para atingir os objetivos escolhidos pelo homem.


17) Não subversão: o poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.


18) Corrida armamentista de IA: uma corrida armamentista em armas autônomas letais deve ser evitada.


Questões de longo prazo

19) Cuidado com a capacidade: não havendo consenso, devemos evitar suposições fortes em relação aos limites superiores das capacidades futuras de IA.


20) Importância: a IA avançada pode representar uma mudança profunda na história da vida na terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.


21) Riscos: os riscos colocados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao seu impacto esperado.


22) Autoaperfeiçoamento recursivo: os sistemas de IA projetados para se autoaperfeiçoarem recursivamente ou se auto-replicarem de uma maneira que possa levar a um rápido aumento da qualidade ou quantidade devem estar sujeitos a medidas rígidas de segurança e controle.


23) Bem comum: a superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados e em benefício de toda a humanidade, e não de um estado ou organização.



 
 
bottom of page