Microsoft viola os princípios da OpenAI e oferece a sua IA aos militares dos EUA

A Microsoft ofereceu a Inteligência Artificial (IA) da OpenAI às forças armadas dos Estados Unidos para a realização de operações militares. Uma investigação revelou os planos da empresa tecnológica para rentabilizar o seu investimento multimilionário nesta tecnologia.

Um relatório do The Intercept fornece detalhes da apresentação de IA generativa com dados do DoD, na qual a Microsoft mostrou casos de uso real da IA da OpenAI. A empresa sediada em Redmond sugeriu que os modelos de linguagem poderiam ser utilizados para analisar imagens e vídeos de vigilância para fins de segurança, 💥️ou para identificar padrões numa base de dados.

No caso específico do DALL-E, a IA generativa da OpenAI seria utilizada para criar imagens para utilização em sistemas de gestão de batalhas. A Microsoft também sugeriu a utilização de ferramentas como o ChatGPT 💥️para automatizar a redação de relatórios, formulários e outros tipos de documentos.

A IA generativa pode ser usada para gerar automaticamente linguagem escrita ou falada, como artigos de notícias, discursos ou resumos de análise de dados.

Disse a empresa na sua apresentação.

Microsoft não pediu autorização à OpenAI

Os modelos de IA personalizados fazem parte da oferta de IA do Azure e incluem os serviços DALL-E e ChatGPT. O que é curioso é o facto de a Microsoft 💥️não ter pedido autorização à OpenAI para oferecer a sua IA ao Departamento de Defesa dos EUA.

Liz Bourgeous, porta-voz da OpenAI, disse que as políticas da empresa proíbem o uso das suas ferramentas para desenvolver ou usar armas, ferir outras pessoas ou destruir propriedades.

A OpenAI não tem parcerias com agências de defesa para usar a nossa API ou o ChatGPT para esses fins.

Disse Bourgeous.

ChatGPT Android OpenAI Portugal app

Microsoft admite ter mostrado a IA da OpenAI aos militares

A Microsoft admitiu que fez a apresentação, no entanto, esclareceu que o Departamento de Defesa não começou a utilizar o DALL-E. A empresa tecnológica acrescentou 💥️que apenas mostrou possíveis casos de utilização da IA generativa.

A investigação mostra mais uma vez que a Microsoft não tem problemas em comercializar a sua tecnologia - ou a dos seus parceiros - 💥️para atividades de guerra. A empresa tem vários contratos com as forças armadas americanas e um website explica as vantagens do Azure nas tarefas de defesa.

O Azure permite que as equipas táticas obtenham maior visibilidade, se movam mais rapidamente e tomem decisões mais informadas.

Esta filosofia tem levado a conflitos internos, 💥️como o que ocorreu em 2023. Funcionários da empresa exigiram a rescisão de um contrato com o Departamento de Defesa que garantia o uso do HoloLens para missões de guerra:

Não fomos contratados para desenvolver armas, e exigimos poder decidir como o nosso trabalho é usado.

Por outro lado, Heidy Khlaaf, engenheiro de segurança de aprendizagem automática, acrescentou que o DALL-E está longe de gerar imagens próximas da nossa realidade física.

Nem sequer conseguem gerar com precisão um número correto de membros ou dedos, por isso, como podemos confiar que sejam precisos para uma presença realista no terreno.

Afirmou.

💥️Leia também:

Servidor sem password da Microsoft expõe código fonte e dados de funcionários

O que você está lendo é [Microsoft viola os princípios da OpenAI e oferece a sua IA aos militares dos EUA].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...