Visualizações
há 5 meses

COMUNICACOES 253 - MARIA MANUEL MOTA - SEM CIÊNCIA NÃO HÁ FUTURO

RADAR

RADAR LEGALParalelamente, o RegulamentoIA também contém disposiçõesaplicáveis:i. aos sistemas de IA que, pelasua proximidade aos humanos,implicam especiais deveres detransparência – como ocorrecom os chatbots;ii. aos modelos de IA de finalidadegeral (como o subjacenteao popular ChatGPT), quemerecem também especialatenção do legislador, pela suacapacidade de se desenvolveremem múltiplos sentidos e,consequentemente, maiorimprevisibilidade.No entanto, e sem prejuízode já se encontrarem em vigoralgumas obrigações – como a deformar adequadamente todos oscolaboradores que interajam comsistemas de IA – o Regulamento IAsó é aplicável, na sua maioria, apartir de agosto de 2026. Tal nãosignifica que durante este hiato ossistemas de IA se encontrem numvazio regulatório.OUTRA LEGISLAÇÃOAPLICÁVELQuando olhamos para o ciclode vida de desenvolvimento, treino,teste, colocação no mercado eutilização de IA, percebemos quesão múltiplos os diplomas que,não regulando especificamentea tecnologia, se mantêm aplicáveise com um enorme impacto.Os mais evidentes serãoaqueles que se relacionam com aeconomia dos dados, um elementofundamental ao desenvolvimento eà utilização de sistemas de IA. Nestamatéria, importa, claro, considerartodo o regime relacionado com aproteção dos dados pessoais, umavez que a mera disponibilidadeou o seu caráter público nãolegitimam a reutilização destesdados no contexto da IA. No entanto,também a reutilização de outrosdados pode estar condicionada, atítulo de exemplo, por obrigaçõesde sigilo, segredo estatístico oucomercial. Mas também porque aestes conjuntos de dados pode serconcedida proteção no âmbito dapropriedade intelectual, muitasvezes desconsiderada, mas que podelimitar a possibilidade da sua cópiaou reutilização.Nesta mesma linha, tambémo quadro legal em matéria decibersegurança (recentementerevisto e aumentado) será deconsiderar. Os sistemas de IAsurgirão, neste contexto, comoum bem a proteger e cujasvulnerabilidades devem seracauteladas, para se garantirque estes sistemas são um ativovalioso e não um catalisador deresponsabilidades.Por fim, e ainda que tenhamuma influência menor, tambémse devem ter em conta os regimesrelativos à segurança dos produtosfísicos, sempre que um sistema deIA seja integrado em equipamentos.E à proteção dos consumidores,sujeitos que interagirão cada vezmais com estes sistemas de IA,passando também por uma fase deaprendizagem e adaptação nestamatéria.Em suma, centrar asconsiderações de regulação da IAapenas no regulamento europeu éredutor. Como uma tecnologia deelevado impacto e potencialmentetransformadora, qualquer plano deCentrar a regulaçãoda IA apenas noregulamento europeué redutor. Sendouma tecnologia deelevado impacto,qualquer plano deveser acompanhadode um mapeamentopreventivo doenquadramentoregulatório.desenvolvimento ou implementaçãodestes sistemas deve seracompanhado de um mapeamentopreventivo do enquadramentoregulatório, que proteja e garantaque o investimento realizado é,tanto quanto possível, confiável eresponsável.Os players dos setores decomunicações, media e tecnologias– desde logo pela sua importânciae peso no domínio digital – têmum papel crucial na construçãode uma IA responsável, aoalinharem inovação às diretrizesdo Regulamento de IA e outrosquadros legais, promovendo práticaséticas e fortalecendo a confiança domercado. 54 | APDC | REVISTA COMUNICAÇÕES | JUNHO 2025 JUNHO 2025 | REVISTA COMUNICAÇÕES | APDC | 55

REVISTA COMUNICAÇÕES

UPDATE

© APDC. Todos os direitos reservados. Contactos - Tel: 213 129 670 | Email: geral@apdc.pt