A inteligência artificial tem ocupado seu lugar de destaque no dia a dia, mas para alguns especialistas, o potencial destrutivo dessa tecnologia, como ChatGPT, pode ser equivalente ao provocado por uma guerra nuclear ou uma pandemia. Um grupo de empresários e líderes do setor chamado Center for AI Safety, tem alertado a população para os impactos, mencionando, inclusive, 'risco de extinção'.
Segundo esses especialistas, a prioridade do mundo atual deve ser mitigar o risco de extinção que poderia ser causado por um descontrole do setor. "Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", diz o trecho de um dos artigos publicados, neste mês de maio, no Arxiv, repositório de artigos científicos das mais diversas áreas do conhecimento.
Entre os riscos elencados pelo grupo, que tem como missão “reduzir os riscos em escala social da inteligência artificial”, estão o uso indevido para fins de desinformação e deepfakes, além do impacto para nichos profissionais, em especial para dois, que devem ser severamente impactados: a área criativa (arte, literatura, ensino) e as atividades manuais (atendimento, construção, montagem).
“Especialistas em IA, jornalistas, formuladores de políticas e o público estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA. Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada", ressalta a introdução da declaração, que tem entre os signatários o chefe da DeepMind — empresa do grupo Google —, Demis Hassabis. Yoshua Bengio, considerado por muitos como um dos padrinhos da IA moderna, também assinou o documento.
Regulamentação de IAs no mundo
Recentemente, nos Estados Unidos, país que concentra a maioria das empresas do segmento de TI, a Casa Branca reuniu executivos de grandes empresas de tecnologia para discutir a necessidade de limitar os riscos da Inteligência Artificial, abrindo possibilidade para novas regulamentações e legislações. Contudo, Biden já havia expressado que “as empresas de tecnologia têm a responsabilidade” de garantir que os produtos “sejam seguros antes de torná-los públicos”.
Na União Europeia foi aprovado, em primeira votação, o AI Act, que propõe que sistemas de IA sejam seguros, transparentes, rastreáveis, não discriminatórios, supervisionados por pessoas e não produzam danos ao meio ambiente. Enquanto na China, regras rígidas já foram impostas para sistemas de IA, no Reino Unido optou-se por abordar a regulamentação por meio de seu órgão regulador.
No Brasil, um projeto de lei que dispõe sobre o uso da Inteligência Artificial no país já tramita no Congresso, uma proposição do presidente do Senado, Rodrigo Pacheco (PSD/MG), na forma do PL 2.338/2023. Segundo Pacheco, o objetivo é estabelecer direitos para proteção das pessoas, bem como criar ferramentas de governança para supervisionar e fiscalizar a atividade. Mas até o momento, está parado no Senado.
Com informações do Canal Tech