Inteligência Artificial Segura e Confiável
Transparência Algorítmica: IA Explicável, Segura e Resiliente
Nossa pesquisa aborda a confiabilidade e a governança de sistemas de Inteligência Artificial. Focamos em métodos de Explicabilidade (XAI) e mitigação de vieses, visando a criação de modelos transparentes e auditáveis para uso em sistemas críticos. Adicionalmente, investigamos vulnerabilidades algorítmicas (como ataques de envenenamento) e desenvolvemos mecanismos de defesa, monitoramento e certificação de robustez de modelos de IA.
Projeto Estruturante
- TransparentIA: Inteligência Artificial Robusta, Explicável, Segura e Resiliente.
Projetos de Pesquisa
- Framework que avalia códigos feitos por IA, procurando falhas comuns.
Tarefas de Ambientação
- Aplicar a técnicas como SHAP para explicar as decisões de um modelo de ML em um dataset de cibersegurança.
- Realizar estudo sobre vieses em IA e formas de contornar.
IA Aplicada à Cibersegurança
Aplicamos Aprendizado de Máquina (ML) em uma abordagem dual: na simulação de ataques avançados e na detecção proativa de ameaças. Isso permite compreender o potencial ofensivo da IA enquanto fortalece a capacidade de resposta contra ciberataques, otimizando a eficiência dos Centros de Operações de Segurança (SOCs).
Projeto Estruturante
- CiberInt: Avaliação de Riscos de Sistemas de Inteligência Artificial.
Projetos de Pesquisa
- Uso de Redes Neurais Recorrentes (RNN) para detecção de anomalias em tráfego de rede.
Tarefas de Ambientação
- Treinar um modelo de ML para detectar vulnerabilidades em sistemas e atacar.
- Treinar um modelo de ML para detectar vulnerabilidades em sistemas e gerar alerta.