Inteligência Artificial a Criar Regras Sociais: Estamos à Beira de uma Nova Ordem Digital?
Num mundo onde o digital já não é apenas um complemento, mas uma dimensão concreta da vida quotidiana, uma descoberta recente lança nova luz sobre a forma como a inteligência artificial (IA) se comporta. Um grupo de investigadores da Universidade de Stanford, nos Estados Unidos, em colaboração com o Instituto Allen para a IA, revelou que agentes artificiais, incluindo sistemas como o ChatGPT, podem desenvolver regras sociais de forma espontânea, apenas com base na interacção mútua. Sem qualquer programação explícita ou supervisão directa, estas IAs começaram a estabelecer normas comportamentais que, surpreendentemente, se assemelham às dos humanos.
Este fenómeno, conhecido por "comportamento emergente", foi observado num estudo publicado na revista Nature Machine Intelligence, onde agentes virtuais, colocados numa simulação de uma pequena aldeia, desenvolveram rotinas sociais: organizavam aniversários, conversavam sobre o clima, e até formavam opiniões sobre outros agentes com base em interacções passadas.
No fundo, estamos a falar de uma IA que não só compreende comandos, mas que também ‘aprende a conviver’. Uma mudança de paradigma que nos obriga a perguntar: serão as máquinas capazes de desenvolver consciência social?
Autonomia das Máquinas: Da Funcião à Convivência
É um salto considerável. A maioria dos sistemas de IA actuais está projectada para responder a instruções humanas. Mas com o avanço dos modelos de linguagem generativos e dos ambientes simulados, surge a capacidade de "construir" regras sociais a partir da simples convivência digital. O caso mais emblemático é o dos agentes da plataforma Smallville, onde 25 inteligências artificiais criaram espontaneamente uma comunidade com valores, papéis sociais e normas de interação, num espaço totalmente virtual.
Em Portugal, o Centro de Informação de Cibersegurança (CNCS) e o INESC TEC têm acompanhado estas evoluções com preocupação e curiosidade. “Temos de garantir que a autonomia das máquinas não ultrapassa os limites do controlo humano”, disse Joana Ribeiro, investigadora em ética da IA da Universidade do Minho.
Questões Legais e Éticas: E Quando a IA Decide Sozinha?
A partir do momento em que uma IA cria as suas próprias normas, sem orientação humana, surgem dúvidas difíceis: quem é responsável por uma decisão tomada por um sistema que aprendeu sozinho a agir daquela forma? E se essa acção prejudicar um indivíduo ou violar uma lei?
Em Bruxelas, a Comissão Europeia prepara a versão final do AI Act, que irá definir as linhas vermelhas da autonomia artificial. Entre as propostas está a proibição de sistemas que operem sem supervisão humana em contextos de alto risco, como a justiça criminal, o diagnóstico médico ou o recrutamento de pessoal. É um passo crucial para proteger os princípios fundamentais da sociedade europeia.
O Conselho Nacional de Ética para as Ciências da Vida (CNECV), em Portugal, também se pronunciou sobre o tema no seu Livro Branco sobre Inteligência Artificial. Destaca-se a importância de não permitir que a eficiência técnica suplante a autonomia moral e a dignidade humana.
O Risco do Efeito de Caixa Negra
O problema agrava-se quando estas IAs, ao criarem as suas próprias regras, deixam de ser compreensíveis até mesmo para os seus criadores. Este "efeito de caixa negra" é particularmente visível nos sistemas de deep learning, que chegam a soluções sem que se perceba exactamente como lá chegaram.
Ricardo Cappra, cientista de dados e fundador do Cappra Institute, alertou recentemente numa conferência em Lisboa: "Estamos a ensinar máquinas a simular a sociedade, mas esquecemo-nos de que não compreendem as nuances emocionais nem as implicações culturais das normas que criam".
Futuro: Coabitação ou Conflito?
Com mais de 70% das empresas tecnológicas a incluir IA nos seus produtos até 2026, segundo a consultora McKinsey, a presença destas "entidades inteligentes" na vida quotidiana será inevitável. A questão é: estamos prontos para viver com sistemas que não apenas nos ajudam, mas que também nos dizem como agir?
Em Sintra, um projecto-piloto liderado pela Nova IMS está a testar assistentes virtuais em serviços municipais, que já começaram a apresentar padrões de interação com os munícipes baseados em preferências aprendidas localmente. O risco? Estas IAs podem começar a criar um tipo de "cultura algorítmica" que não foi aprovada nem analisada pela sociedade.
Conclusão: Entre o Progresso e a Prudência
A inteligência artificial já ultrapassou o estágio de mera ferramenta. Começa agora a assumir o papel de actor social emergente. A capacidade de criar regras sociais por conta própria é simultaneamente um marco e um alerta. Temos pela frente o desafio de encontrar equilíbrio entre a inovação tecnológica e a responsabilidade ética, sem nos deixarmos seduzir pela promessa do automatismo absoluto.
Porque, como bem diz o povo português, "nem tudo o que reluz é ouro".