- Microsoft lançou seu Relatório de Transparência em IA Responsável 2025
- O documento detalha planos para construir e manter modelos de IA responsáveis
- Novas regulamentações relacionadas ao uso de IA estão surgindo, e a Microsoft quer estar preparada
À medida que a IA e os Modelos de Linguagem de Grande Escala (LLMs) são cada vez mais utilizados em várias partes da vida moderna, a confiabilidade e a segurança desses modelos tornaram-se considerações importantes para empresas como a Microsoft.
A empresa delineou sua abordagem para o futuro da IA em seu Relatório de Transparência em IA Responsável 2025, expondo como visualiza a evolução da tecnologia nos próximos anos.
Assim como testemunhamos uma adoção mais ampla da IA pelas empresas, também observamos uma onda de regulamentações ao redor do mundo que visam estabelecer o uso seguro e responsável de ferramentas de IA e a implementação de políticas de governança que ajudem as empresas a gerenciar os riscos associados ao uso da IA.
Uma abordagem prática
No relatório, o segundo desde o lançamento inicial em maio de 2024, a Microsoft descreve como fez investimentos significativos em ferramentas, políticas e práticas de IA responsável.
Esses investimentos incluem a expansão da gestão de riscos e mitigação para “modalidades além do texto—como imagens, áudio e vídeo—e suporte adicional para sistemas autônomos”, além de adotar uma “abordagem proativa e em camadas” em relação a novas regulamentações, como a Lei de IA da UE, fornecendo aos clientes materiais e recursos para capacitá-los a estarem prontos e em conformidade com os requisitos que estão por vir.
A gestão de riscos consistente, supervisão, revisão e avaliação de lançamentos de IA e IA generativa acompanham a pesquisa e desenvolvimento contínuos para “informar nossa compreensão de questões sociotécnicas relacionadas aos últimos avanços em IA”, com o laboratório AI Frontiers ajudando a Microsoft a “empurrar a fronteira do que os sistemas de IA podem fazer em termos de capacidade, eficiência e segurança.”
Conforme a IA avança, a Microsoft afirma que planeja construir ferramentas e práticas mais adaptáveis e investir em sistemas de gestão de riscos com o intuito de “fornecer ferramentas e práticas para os riscos mais comuns em cenários de implantação”.
Não é só isso, pois a Microsoft também planeja aprofundar seu trabalho em relação às regulamentações que estão por vir, apoiando a governança eficaz ao longo da cadeia de suprimentos de IA.
A empresa afirma que está trabalhando internamente e externamente para “esclarecer papéis e expectativas”, além de continuar com pesquisa sobre “medição e avaliação de riscos em IA e as ferramentas para operacionalizá-la em grande escala”, compartilhando avanços com seu ecossistema mais amplo para apoiar normas e padrões mais seguros.
“Nosso relatório destaca novos desenvolvimentos relacionados a como construímos e implantamos sistemas de IA de forma responsável, como apoiamos nossos clientes e o ecossistema mais amplo, e como aprendemos e evoluímos”, afirmaram Teresa Hutson, CVP, Trusted Technology Group, e Natasha Crampton, Chief Responsible AI Officer.
“Estamos ansiosos para ouvir seu feedback sobre o progresso que fizemos e as oportunidades de colaboração em tudo que ainda temos a fazer. Juntos podemos avançar na governança de IA de maneira eficiente e eficaz, fomentando a confiança nos sistemas de IA a um ritmo que corresponda às oportunidades à frente.”

