INESC TEC Open Talks sobre Ética na Investigação e Defesa
O INESC TEC inaugura, a partir de setembro, um ciclo de conferências que tem como objetivo debater a dimensão ética da investigação no setor da defesa.
A motivação? As recentes mudanças geopolíticas internacionais trouxeram o debate sobre o setor da defesa para o centro da discussão na União Europeia. Um tema com impacto na comunidade científica, quer a nível europeu quer nacional, dado que a ligação dos projetos de investigação à área da defesa e às possíveis aplicações militares apresentam novas e complexas questões.
Para garantir uma discussão frutífera e com impacto nas políticas públicas, o INESC TEC está a reunir um conjunto de especialistas, nacionais e internacionais, em cada uma das sessões. Cada talk começará com uma palestra inicial, seguida de debate entre os oradores e a audiência.
Há já três sessões confirmadas.
19 DE SETEMBRO | 17H00 – 18H00 | ONLINE | OPEN TALK 1: O HUMANISMO SEM FRONTEIRAS - CANCELADO
- Sessão exclusivamente na língua portuguesa -
Orador: Álvaro de Vasconcelos, Fundador do Fórum Demos e Detentor da Cátedra José Bonifácio da Universidade de São Paulo (2023-2024)
Resumo: À popularidade das teorias geopolíticas, sempre com um substrato niilista, à emergência dos nacionalismos e ao regresso à política de potência com a guerra como corolário, ao desprezo pelos direitos humanos em nome dos superiores interesses dos Estados, devemos responder com um humanismo sem fronteiras, com a agenda da compaixão, da hospitalidade, da defesa dos direitos dos que não têm direitos, da justiça social e do clima estável. Esta é a agenda de um novo multilateralismo, ao serviço da humanidade, que nos permitirá vencer as fraturas atuais e preservar a democracia.
Nota biográfica: Opositor do Estado Novo e da guerra colonial portuguesa, Álvaro Vasconcelos viveu no exílio na Bélgica e em França (1967 – 1974). Regressou a Portugal depois do 25 de Abril, onde participou no processo de transição democrática. Fundador do Fórum Demos. Colabora regularmente com os órgãos de Comunicação Social na imprensa (Público, Diário de Notícias e Expresso), rádio e televisão (RTP, Porto Canal, SIC).
Link para registo: aqui.
1 DE OUTUBRO | 17H – 18H00 | ONLINE | OPEN TALK 2: O MEU SISTEMA DE RECONHECIMENTO FACIAL É 100% RIGOROSO - É UMA BOA NOTÍCIA?
- Sessão em inglês -
Oradora: Catherine Tessier, diretora de investigação do ONERA – laboratório aeroespacial francês -, onde é também a responsável pelo gabinete de Ética e Integridade na Investigação.
Resumo: A investigação digital pode ser aplicada a diferentes setores, incluindo aplicações militares. Além disso, certas tecnologias, como o reconhecimento facial, podem ser usadas para diferentes fins, e.g., para desbloquear smartphones, para monitorizar pessoas ou para vigiar certos indivíduos. Esta sessão foca-se nos princípios éticos que os investigadores devem adotar ao desenvolver atividades científicas, e que devem ir além de um mero ato de aceitação ou objeção: quais são os meus próprios valores pessoais? Existe algum conflito entre eles, os meus princípios profissionais, e os valores mais defendidos no meu país? Quais são os diferentes argumentos que podem ser apresentados para participar ou não em certas atividades de investigação? Ou mesmo para publicar resultados, de acordo com determinados princípios éticos? Como integrar reflexões éticas na disseminação da investigação?
Nota biográfica: Enquanto investigadora, dedica-se principalmente ao design de referenciais éticos, e a diferentes questões éticas relacionadas com a "autonomia" dos robôs. É membro do Comité Nacional Francês para a Ética Digital, e membro do Comité de Ética do Setor da Defesa Francês. Foi membro do Grupo de Peritos ad hoc da UNESCO para a elaboração da Recomendação sobre a Ética da Inteligência Artificial.
Link para registo: aqui.
26 DE NOVEMBRO | 17H – 18H00 | ONLINE | OPEN TALK 3: PARA ALÉM DA MODA DA IA: O EQUILÍBRIO ENTRE INOVAÇÃO E RESPONSABILIDADE SOCIAL
- Sessão em inglês -
Oradora: Virginia Dignum, docente na Universidade de Umeå (Suécia), no departamento de ciência dos computadores, e membro do grupo de peritos de alto nível da Comissão Europeia sobre Inteligência Artificial.
Resumo: A IA contribui para a melhoria de certas aptidões dos seres humanos, mas requer uma abordagem focada nos desafios em termos de educação, trabalho e preconceitos. Assim, adotar uma abordagem responsável requer compreender a natureza da IA, as escolhas em termos de design, o papel social que desempenha e certas considerações éticas. Os mais recentes desenvolvimentos em IA – como os modelos fundacionais, transformadores, generativos e de linguagem (LLMs) – levantam diferentes questões, nomeadamente sobre de que forma mudam o paradigma da IA, bem como sobre a responsabilidade daqueles que estão a desenvolver e a implementar sistemas de IA. É muito importante reconhecer que a IA não é uma entidade autónoma, mas sim dependente da responsabilidade e das decisões humanas. Esta sessão irá focar-se na necessidade de adotar uma abordagem responsável, que garanta maior confiança, e promova a cooperação e o bem-estar geral. Assumir esta responsabilidade requer regulamentos adequados, bem como modelos de governança e de conscientização. A ética e os dilemas são considerações contínuas, mas é necessário reconhecer certos trade-offs, e que os processos de tomada de decisão são sempre contextuais. Assumir esta responsabilidade requer desenvolver sistemas de IA com determinados valores em mente, implementar regulamentos, e princípios de governança e de monitorização, bem como determinados acordos e normas. Ao invés de assumir que a regulação é uma restrição, devemos assumir que é um veículo para a inovação, de forma a garantir uma maior aceitação pública, a impulsionar a transformação e a promover uma maior diferenciação e competitividade ao nível das empresas. A Inteligência Artificial (IA) Responsável não é uma opção, mas sim o único rumo possível quando falamos de avanços neste setor.
Short Bio: Virginia Dignum é docente no Departamento de Ciência dos Computadores da Universidade de Umeå (Suécia), onde lidera o grupo de investigação em Inteligência Artificial Social e Ética. É Fellow da Aliança Europeia de Inteligência Artificial e associada da Faculdade de Política e Gestão de Tecnologia, na Universidade de Tecnologia de Delft. Sendo que é crucial compreender o impacto da IA a nível social, ético e legal, Virginia Dignum está ativamente envolvida em várias iniciativas internacionais sobre diretrizes de política e estratégias para investigação e aplicações em IA. Como tal, é membro do Grupo de Peritos de Alto Nível da Comissão Europeia sobre Inteligência Artificial, da Iniciativa IEEE sobre Ética de Sistemas Auténomos, do Instituto Delft Design for Values, do Fórum Global Europeu sobre IA (AI4People), da Fundação Responsible Robotics, da Aliança Holandesa de IA (ALLAI-NL) e da fundação ADA-AI.
Link para registo: aqui.
Mais sessões serão anunciadas oportunamente. Mas há já muitas questões por responder, nomeadamente:
- Como podemos procurar assegurar a transparência no desenvolvimento e na aplicação dos sistemas de defesa, bem como mecanismos de responsabilização eficazes que garantam que esses sistemas são utilizados de forma responsável e ética?
- Como abordar o desenvolvimento e a aplicação de sistemas autónomos e de IA em contextos militares e de defesa, tendo em conta a rápida evolução que existe nesta área?
- Como garantir que o desenvolvimento de tecnologias de vigilância ou de reconhecimento emocional, especialmente quando combinadas com sistemas de IA e com a utilização de dados biométricos, não se torna excessivo, pondo em causa os direitos humanos, incluindo o direito à privacidade, o direito à vida e o respeito pelos valores e princípios de um Estado de direito democrático?
- Em que medida é possível garantir que os sistemas de defesa são desenvolvidos e utilizados de modo a minimizar o risco de danos colaterais a civis e a infraestruturas não combatentes?
- Será possível desenvolver e implementar protocolos operacionais que procurem garantir a segurança dos civis?
- E até que ponto é razoável (e como é que se aborda) a possível objeção de alguns investigadores a participar em investigação relacionada com projetos de defesa, com base em convicções éticas ou morais?
- Devemos - ou será que podemos - colocar limites profissionais, contratuais ou legais a uma objeção que pode ter origem na oposição geral à violência, na preocupação com os direitos humanos e no conflito com valores pessoais, éticos ou religiosos?
Têm mais questões que gostavam que fossem debatidas? Então, garantam já o vosso lugar e participem num debate sério e informado sobre ciência e sociedade.