- Sobre nós
- Não nos limitamos a construir IA. Construímo-la de forma responsável.
Não nos limitamos a construir IA. Construímo-la de forma responsável.

Normas que reforçam e não restringem
A responsabilidade começa na raiz
Para além da conformidade, rumo ao impacto
Vamos mais longe do que os regulamentos exigem - alinhando-nos com normas internacionais como a Recomendação da UNESCO sobre a Ética da Inteligência Artificial e antecipando proactivamente a Lei da IA da UE.
O nosso objetivo é apoiar sistemas que reflictam tanto a consciência jurídica como a responsabilidade ética, contribuindo para uma conversa mais ampla sobre a IA responsável.
Como um dos primeiros signatários do Pacto de IA da União Europeia, não ficamos à espera que nos digam como fazer o que é correto - ajudamos a defini-lo!
Construímos tendo em conta os direitos humanos, para evitar preconceitos e promover a sustentabilidade a longo prazo - a nível tecnológico e social.

Como criamos uma IA que ganha confiança
1. Sensibilização e competências em matéria de IA
Promovemos a literacia em IA em todas as equipas, assegurando que cada indivíduo compreende tanto o poder como a responsabilidade de trabalhar com IA. Através de formação e diretrizes claras, a responsabilidade torna-se parte da tomada de decisões diárias
2. Governação da IA
Incorporamos justiça, responsabilidade e supervisão em todas as soluções, garantindo a conformidade com os regulamentos internacionais. A nossa estrutura enfatiza a transparência algorítmica, a privacidade desde a conceção e a proteção robusta dos dados - desde a primeira linha de código
3. Gestão dos riscos da IA
Mantemos um inventário transparente dos sistemas de IA e efectuamos avaliações de risco rigorosas ao longo do seu ciclo de vida, especialmente para casos de utilização de alto risco. Quaisquer casos de utilização de IA que se enquadrem em categorias de alto risco, conforme definido pela Lei de IA da UE, são submetidos a avaliações de impacto específicas, avaliações éticas e verificações de governação independentes antes da aprovação.
Liderança reconhecida em IA responsável
Em 2024, introduzimos a Diretriz GFT para IA Responsável como parte de nosso Relatório de Proteção de Dados, fortalecendo nossa liderança na interseção de IA e proteção de dados.
Nesse mesmo ano, recebemos orgulhosamente o Prémio PICCASO para a Iniciativa de Privacidade ESG - um reconhecimento do nosso compromisso contínuo com a construção de sistemas de IA seguros, éticos e fiáveis.
“Os sistemas de IA precisam de grandes quantidades de dados para serem poderosos - ao mesmo tempo, devem ser concebidos para serem justos, explicáveis e seguros. É por isso que nós da GFT Technologies acreditamos que inovação e responsabilidade são inseparáveis”

Explore o nosso relatório sobre a proteção de dados
Marcos no nosso percurso de IA responsável
