Un total de 26 expertos especialistas en IA, ciberseguridade e robótica das universidades de Cambridge, Oxford, Yale, Stanford, así como de organismos non gobernamentais (OpenAI, Center for a New American Security, Electronic Frontier Foundation), alertan dos perigos potenciais da intelixencia artificial por un posible uso malintencionado desta tecnoloxía por parte de estados corruptos ou de grupos criminais ou terroristas.
Nun informe advirten que na próxima década a eficacia crecente da intelixencia artificial (IA) podería potenciar a cibercriminalidade e conducir ao uso de drons ou robots con fins terroristas.
“Cremos que os ataques que serían posibles polo uso crecente da IA serán particularmente efectivos, finamente dirixidos e difíciles de atribuír”, advirten nun comunicado.
O informe describe escenarios plausibles como consecuencia do desenvolvemento da IA: alterar os sistemas informáticos de drons ou vehículos autónomos para causar accidentes ou provocar explosións, é un deles.
Outro escenario que consideran plausible é a manipulación de robots. Imaxinan que é posible coar un robot entre outros que teñan funcións de limpeza no interior dun ministerio ou institución e dirixilo a cometer un atentado contra unha personalidade política: abondaría con que o recoñecese visualmente, se aproximase a el e procedese a estoupar xunto ao obxectivo.
Así mesmo, consideran que os ataques dirixidos a unha institución ou empresa para roubar ou destruír información específica, algo que xa acontece na actualidade, poderían perfeccionarse e desenvolverse con maior frecuencia e eficacia grazas á IA.
Efectos políticos
A IA podería así mesmo facilitar a manipulación de eleccións políticas en diferentes países a través das redes sociais usando contas automatizadas (bots), algo que xa se fixo, aínda que non á escala que podería alcanzar esta manipulación da man da intelixencia artificial tal como se vai desenvolver nos próximos anos.
Esta ameaza pode formular serios problemas á estabilidade política dalgúns países e talvez desencadear graves conflitos, xa sexa nacionais ou internacionais, segundo este informe.
Outra posibilidade é realizar vídeos falsos cun realismo extremo que confundirían doadamente a poboación ou o electorado, coa finalidade de desacreditar ou impulsar determinados responsables políticos.
Un último escenario descrito por estes expertos refírese á posibilidade de que dirixentes dalgúns países fagan uso da IA para vixiar clandestinamente os seus cidadáns. E especifican: estas preocupacións son máis significativas no contexto de Estados autoritarios, pero tamén poden socavar a capacidade das democracias para soster debates públicos auténticos.
Recomendacións
O informe conclúe cunha serie de recomendacións orientadas a previr estes posibles escenarios.
As recomendacións pasan por reforzar as capacidades da ciberseguridade, incorporar novas normas para previr posibles abusos da IA, promover a cultura da responsabilidade potenciando a educación e a ética, alcanzar novos desenvolvementos tecnolóxicos que eviten esta posible deriva da IA e acometer novas políticas para sensibilizar a poboación e organizar á sociedade ante esta ameaza potencial.
A IA é unha rama das ciencias computacionais encargada de estudar modelos de cómputo capaces de realizar actividades propias dos seres humanos como o razoamento e a conduta.
Os sistemas de IA son cotiáns actualmente en campos como a economía, a medicina, a enxeñería e o exército, e usáronse en gran variedade de aplicacións de software, xogos de estratexia, como xadrez de ordenador, e outros videoxogos.
E aínda que non é a primeira vez que diferentes expertos advirten dos riscos potenciais da IA, este informe achega unha panorámica xeral sobre como esta rama da enxeñería informática crea novas ameazas para as persoas e a sociedade en campos como a ciberseguridade, as persoas físicas e as autoridades políticas.
(Fonte: Tendencias21)