Engenharia
[Fechado]
Descrição da Oportunidade
Vários métodos de interpretabilidade foram propostos, consistindo em mapas de saliência, descrições em linguagem natural e explicações baseadas em regras e baseadas em exemplos. A partir desse conjunto de métodos de interpretabilidade, as explicações baseadas em exemplos surgem como uma das mais intuitivas para os seres humanos, uma vez que aprender pelo exemplo é nossa maneira natural de raciocinar. No entanto, as explicações baseadas em exemplos às vezes não são possíveis devido a questões de privacidade. Quando há uma pessoa exposta na imagem, principalmente, quando essas imagens são adquiridas para fins sensíveis, como é o caso de imagens médicas, o uso de explicações baseadas em exemplos é totalmente inibido. Portanto, para usar estas explicações como forma de entender o comportamento de modelos deep learning, deve-se ser capaz de remover a identidade antes de apresentar esses exemplos ao consumidor das explicações. Neste projeto de investigação exploratória, pretendemos promover uma abordagem causal para a geração de explicações baseadas em exemplos que preservem a privacidade, partindo da separação explícita entre características médicas e de identidade e avançando em direção a um modelo causal em que as intervenções são produzidas em termos de características semânticas de alto nível.
Requisitos Mínimos
Conhecimentos em Aprendizagem Computacional ou Visão Computacional.
Fatores de Preferência
Experiência em projetos científicos, e escrita de documentos científicos.
Período de candidatura
Desde 14 Sep 2023 a 27 Sep 2023
[Fechado]
Centro
Centro de Telecomunicações e Multimédia