Você já deu um pedido a um assistente virtual? Evitou um engarrafamento graças a um sistema de navegação inteligente? E quanto às ofertas direcionadas que aparecem em vários sites, lembrando-o continuamente de itens que você pesquisou on-line? Todos os itens acima são possíveis graças à análise de big data de sistemas de Inteligência Artificial (AI), cujo uso está aumentando. No entanto, à medida que a IA começa a afetar todas as dimensões de nossa sociedade, ela também apresenta várias oportunidades e desafios para questões sociais, como os direitos humanos.Os exemplos acima de tecnologias com tecnologia AI foram projetados para facilitar tarefas específicas. Portanto, com todas essas inovações promissoras, por que devemos nos preocupar com os direitos humanos no campo da IA? A resposta mais direta a essa questão é que ela afeta a todos e continuará a fazê-lo no futuro. Embora os benefícios de basear certas decisões em cálculos matemáticos possam ser significativos em muitos setores, confiar demais na IA também pode ser contraproducente, aumentar as injustiças e impedir os direitos das pessoas.No passado, as ameaças da IA ​​foram representadas em filmes através de supervilões de ficção científica, como HAL 9000 em 2001: A Space Odyssey de Stanley Kubrick ou T-800 em Terminator de James Cameron. Em janeiro de 2015, vários inovadores de tecnologia, incluindo Stephen Hawking e Elon Musk, deram um passo à frente para nos alertar sobre os perigos potenciais de uma aquisição de máquinas inteligentes. A AI genuinamente tem o potencial de dominar o mundo? Quais ameaças a IA representa para os direitos humanos? Além disso, essas ameaças podem ser evitadas?A maioria das pessoas ainda pensa em robôs assassinos apenas como personagens fictícios, mas devido aos avanços atuais da tecnologia, eles podem se tornar uma realidade em breve. Formalmente conhecidos como sistemas de armas letais autônomas (LAWS), essas armas destinadas a pessoas-alvo ainda não existem, mas especialistas prevêem que se trata apenas de alguns anos. Alguns argumentam que dar às máquinas tal poder no campo de batalha é uma aplicação imoral da tecnologia, já que manter o controle humano de qualquer robô de combate é crucial para salvaguardar a proteção humanitária e o controle legal eficiente. Portanto, os cientistas estão pedindo a proibição do LAWS, com a ajuda de coalizões internacionais, como a Campanha para Parar os Robôs Assassinos.Além disso, como a IA é orientada por dados, onde ela deixa preocupações com a privacidade? Lilian Edwards, professora de direito da Universidade de Strathclyde, em Glasgow, declarou que “Big data é completamente contrário à base da proteção de dados (…). Acho que as pessoas têm sido muito negligentes ao dizer que podemos tornar os dois conciliáveis, porque é muito difícil."No mundo digital, as preocupações com a privacidade dependem da nossa capacidade de controlar a maneira como nossos dados são armazenados e trocados entre diferentes partes. Os sistemas controlados por IA geralmente coletam grandes quantidades de dados, geralmente sem o conhecimento ou consentimento de seus usuários. Como resultado, a inteligência artificial pode ser usada para identificar pessoas que desejam permanecer anônimas, gerar informações confidenciais - como pontos de vista políticos - a partir de dados não sensíveis, fazer perfis injustos ou tomar decisões de longo alcance usando esses dados, o que pode afetar negativamente vidas das pessoas.Por último, mas não menos importante, há preocupações crescentes de que alguns sistemas de inteligência artificial não sejam sempre justos em suas decisões. Os dados usados ​​para treinar sistemas de aprendizagem profunda podem facilmente refletir os preconceitos das pessoas que os montam ou serem prejudicados pela história, codificando padrões que reproduzem certas discriminações. Se o viés algorítmico não for corrigido, poderá ter conseqüências severas e reforçar as discriminações existentes, especialmente para comunidades marginalizadas e mais empobrecidas.Em junho de 2017, o secretário geral da Anistia Internacional, Salil Shetty, dirigiu-se à AI para a Global Good Summit em Genebra, afirmando que os Estados deveriam se comprometer a fazer o melhor da inteligência artificial, coordenando-a com a preservação da proteção dos direitos humanos. Os benefícios da IA ​​nas tecnologias que as pessoas usam diariamente são amplamente conhecidos, mas à medida que os sistemas de IA aumentam em complexidade, big data também pode ser usado para boas causas e até mesmo ajudar a resolver desigualdades e corrigir vieses existentes em IA.A equipe de Pesquisa da Microsoft FATE (Justiça, Responsabilidade, Transparência e Ética na IA) foi criada para desenvolver e melhorar sistemas de IA que sejam inovadores e éticos. Ao descobrir vieses existentes em dados de IA, o programa pode ajudar os usuários oferecendo percepções aprimoradas e evitando a exposição à discriminação.Quando dados precisos não estão disponíveis, pode ser difícil para os formuladores de políticas apoiar iniciativas de justiça racial. Em 2015, Yeshimabeit Milner fundou a Data 4 Black Lives (D4BL), um grupo de ativistas, organizadores e matemáticos que buscam mobilizar cientistas em torno de questões de justiça racial. A D4BL baseia-se na ideia de utilizar a ciência de dados como a IA e a aprendizagem automática para estabelecer uma mudança concreta e acessível na vida dos negros e capacitá-los.No campo da medicina, o uso da IA ​​já é difundido, pois suas capacidades revolucionárias têm o potencial de desenvolver estratégias preventivas e curativas. Por exemplo, os recursos da IA ​​já se mostraram úteis na detecção e no diagnóstico do câncer, já que os pesquisadores sugerem que a IA agora pode detectar alguns tipos de câncer melhor do que os médicos. No futuro, poderemos derrotar doenças difíceis de curar graças aos avanços da IA.AI também pode ser usado para previsões médicas em pacientes. Em um estudo publicado em maio de 2018 na Nature Digital Medicine, um algoritmo calculou registros de saúde eletrônicos desidentificados de mais de 216.000 hospitalizações de pacientes adultos para prever re-internações não planejadas, tempo de internações hospitalares e mortalidade intra-hospitalar de forma mais precisa do que com métodos preditivos tradicionais. abordagens.A IA está fadada a afetar nossos direitos sociais, políticos e econômicos. Consequentemente, precisamos garantir que esses sistemas sejam desenvolvidos e usados ​​de maneiras que mantenham princípios de justiça, responsabilidade e transparência. A proibição do LAWS exigiria o estabelecimento de tratados e uma estrutura institucional com a ajuda de atores estatais e não estatais. Para lidar com ameaças à privacidade, as leis devem ser criadas, revisadas ou alteradas. Já foram tomadas medidas na UE onde o Regulamento Geral de Proteção de Dados (GDPR) foi implementado para dar aos usuários da Internet mais controle sobre o que é coletado e compartilhado sobre eles. Finalmente, para combater a discriminação devido ao viés da IA, equipes mais diversas devem estar por trás do desenvolvimento de sistemas de IA e construir modelos abrangentes de aprendizado por máquina e aprendizagem profunda que sejam inclusivos, avaliaveis e ajustáveis.Como qualquer tecnologia, a IA pode ser benéfica e prejudicial. Em conclusão, devemos reconhecer que os algoritmos não são neutros, mas refletem os dados com os quais foram fornecidos. Se os dados tendenciosos forem introduzidos em um algoritmo, os resultados discriminatórios seguirão. A única maneira de garantir que a revolução da IA ​​continue a ser um marco não destrutivo para a humanidade é controlá-la rigorosamente e garantir que ela proteja os direitos humanos acima de tudo.

Direitos Humanos em face da Inteligência Artificial: Oportunidade ou Ameaça?

Você já deu um pedido a um assistente virtual? Evitou um engarrafamento graças a um sistema de navegação inteligente? E quanto às ofertas direcionadas que aparecem em vários sites, lembrando-o continuamente de itens que você pesquisou on-line? Todos os itens acima são possíveis graças à análise de big data de sistemas de Inteligência Artificial (AI), cujo uso está aumentando. No entanto, à medida que a IA começa a afetar todas as dimensões de nossa sociedade, ela também apresenta várias oportunidades e desafios para questões sociais, como os direitos humanos.

Os exemplos acima de tecnologias com tecnologia AI foram projetados para facilitar tarefas específicas. Portanto, com todas essas inovações promissoras, por que devemos nos preocupar com os direitos humanos no campo da IA? A resposta mais direta a essa questão é que ela afeta a todos e continuará a fazê-lo no futuro. Embora os benefícios de basear certas decisões em cálculos matemáticos possam ser significativos em muitos setores, confiar demais na IA também pode ser contraproducente, aumentar as injustiças e impedir os direitos das pessoas.

No passado, as ameaças da IA ​​foram representadas em filmes através de supervilões de ficção científica, como HAL 9000 em 2001: A Space Odyssey de Stanley Kubrick ou T-800 em Terminator de James Cameron. Em janeiro de 2015, vários inovadores de tecnologia, incluindo Stephen Hawking e Elon Musk, deram um passo à frente para nos alertar sobre os perigos potenciais de uma aquisição de máquinas inteligentes. A AI genuinamente tem o potencial de dominar o mundo? Quais ameaças a IA representa para os direitos humanos? Além disso, essas ameaças podem ser evitadas?

A maioria das pessoas ainda pensa em robôs assassinos apenas como personagens fictícios, mas devido aos avanços atuais da tecnologia, eles podem se tornar uma realidade em breve. Formalmente conhecidos como sistemas de armas letais autônomas (LAWS), essas armas destinadas a pessoas-alvo ainda não existem, mas especialistas prevêem que se trata apenas de alguns anos. Alguns argumentam que dar às máquinas tal poder no campo de batalha é uma aplicação imoral da tecnologia, já que manter o controle humano de qualquer robô de combate é crucial para salvaguardar a proteção humanitária e o controle legal eficiente. Portanto, os cientistas estão pedindo a proibição do LAWS, com a ajuda de coalizões internacionais, como a Campanha para Parar os Robôs Assassinos.

Além disso, como a IA é orientada por dados, onde ela deixa preocupações com a privacidade? Lilian Edwards, professora de direito da Universidade de Strathclyde, em Glasgow, declarou que “Big data é completamente contrário à base da proteção de dados (…). Acho que as pessoas têm sido muito negligentes ao dizer que podemos tornar os dois conciliáveis, porque é muito difícil.”

No mundo digital, as preocupações com a privacidade dependem da nossa capacidade de controlar a maneira como nossos dados são armazenados e trocados entre diferentes partes. Os sistemas controlados por IA geralmente coletam grandes quantidades de dados, geralmente sem o conhecimento ou consentimento de seus usuários. Como resultado, a inteligência artificial pode ser usada para identificar pessoas que desejam permanecer anônimas, gerar informações confidenciais – como pontos de vista políticos – a partir de dados não sensíveis, fazer perfis injustos ou tomar decisões de longo alcance usando esses dados, o que pode afetar negativamente vidas das pessoas.

Por último, mas não menos importante, há preocupações crescentes de que alguns sistemas de inteligência artificial não sejam sempre justos em suas decisões. Os dados usados ​​para treinar sistemas de aprendizagem profunda podem facilmente refletir os preconceitos das pessoas que os montam ou serem prejudicados pela história, codificando padrões que reproduzem certas discriminações. Se o viés algorítmico não for corrigido, poderá ter conseqüências severas e reforçar as discriminações existentes, especialmente para comunidades marginalizadas e mais empobrecidas.

Em junho de 2017, o secretário geral da Anistia Internacional, Salil Shetty, dirigiu-se à AI para a Global Good Summit em Genebra, afirmando que os Estados deveriam se comprometer a fazer o melhor da inteligência artificial, coordenando-a com a preservação da proteção dos direitos humanos. Os benefícios da IA ​​nas tecnologias que as pessoas usam diariamente são amplamente conhecidos, mas à medida que os sistemas de IA aumentam em complexidade, big data também pode ser usado para boas causas e até mesmo ajudar a resolver desigualdades e corrigir vieses existentes em IA.

A equipe de Pesquisa da Microsoft FATE (Justiça, Responsabilidade, Transparência e Ética na IA) foi criada para desenvolver e melhorar sistemas de IA que sejam inovadores e éticos. Ao descobrir vieses existentes em dados de IA, o programa pode ajudar os usuários oferecendo percepções aprimoradas e evitando a exposição à discriminação.

Quando dados precisos não estão disponíveis, pode ser difícil para os formuladores de políticas apoiar iniciativas de justiça racial. Em 2015, Yeshimabeit Milner fundou a Data 4 Black Lives (D4BL), um grupo de ativistas, organizadores e matemáticos que buscam mobilizar cientistas em torno de questões de justiça racial. A D4BL baseia-se na ideia de utilizar a ciência de dados como a IA e a aprendizagem automática para estabelecer uma mudança concreta e acessível na vida dos negros e capacitá-los.

No campo da medicina, o uso da IA ​​já é difundido, pois suas capacidades revolucionárias têm o potencial de desenvolver estratégias preventivas e curativas. Por exemplo, os recursos da IA ​​já se mostraram úteis na detecção e no diagnóstico do câncer, já que os pesquisadores sugerem que a IA agora pode detectar alguns tipos de câncer melhor do que os médicos. No futuro, poderemos derrotar doenças difíceis de curar graças aos avanços da IA.

AI também pode ser usado para previsões médicas em pacientes. Em um estudo publicado em maio de 2018 na Nature Digital Medicine, um algoritmo calculou registros de saúde eletrônicos desidentificados de mais de 216.000 hospitalizações de pacientes adultos para prever re-internações não planejadas, tempo de internações hospitalares e mortalidade intra-hospitalar de forma mais precisa do que com métodos preditivos tradicionais. abordagens.

A IA está fadada a afetar nossos direitos sociais, políticos e econômicos. Consequentemente, precisamos garantir que esses sistemas sejam desenvolvidos e usados ​​de maneiras que mantenham princípios de justiça, responsabilidade e transparência. A proibição do LAWS exigiria o estabelecimento de tratados e uma estrutura institucional com a ajuda de atores estatais e não estatais. Para lidar com ameaças à privacidade, as leis devem ser criadas, revisadas ou alteradas. Já foram tomadas medidas na UE onde o Regulamento Geral de Proteção de Dados (GDPR) foi implementado para dar aos usuários da Internet mais controle sobre o que é coletado e compartilhado sobre eles. Finalmente, para combater a discriminação devido ao viés da IA, equipes mais diversas devem estar por trás do desenvolvimento de sistemas de IA e construir modelos abrangentes de aprendizado por máquina e aprendizagem profunda que sejam inclusivos, avaliaveis e ajustáveis.

Como qualquer tecnologia, a IA pode ser benéfica e prejudicial. Em conclusão, devemos reconhecer que os algoritmos não são neutros, mas refletem os dados com os quais foram fornecidos. Se os dados tendenciosos forem introduzidos em um algoritmo, os resultados discriminatórios seguirão. A única maneira de garantir que a revolução da IA ​​continue a ser um marco não destrutivo para a humanidade é controlá-la rigorosamente e garantir que ela proteja os direitos humanos acima de tudo.