Caroline Capitani*
Com o avanço das tecnologias emergentes, em especial a Inteligência Artificial (IA), os países se depararam com a necessidade de regular o uso dessas ferramentas. A regulamentação busca equilibrar inovação e segurança, garantindo uma experiência positiva para os usuários. É claro que o tema vem carregado de muitas questões: há quem diga, por exemplo, que a regulação pode censurar a liberdade, já outros enxergam o processo como um avanço positivo.
No Brasil, as tentativas de regulamentação iniciaram-se em 2021, e contaram com muitas idas e vindas ao longo dos anos até chegarmos em 2023, ano em que o Projeto de Lei (PL) nº. 2.338/2023 foi criado para discutir a norma no país. Com muitos desdobramentos, no final do último ano, o PL passou por mais uma atualização, resultando na aprovação do texto final pelo Senado Federal. Agora, a proposta segue para revisão na Câmara dos Deputados.
A versão aprovada estabelece princípios como transparência, segurança e responsabilidade, além de classificar os sistemas de IA conforme seu nível de risco. O tema ganha relevância não só pelo contexto atual, mas também pela necessidade de não passar a ideia de que a internet é “terra de ninguém”. Há uma preocupação de colocar limites dentro desse ambiente que pode, sim, ser usado tanto para o bem quanto para o mal. Neste sentido, a tentativa de regular tem como principal objetivo estabelecer o que pode e não pode, o que é possível e o que não é, além de responsabilizar as empresas de tecnologia e os envolvidos, haja vista os impactos que isso pode gerar na vida das pessoas.
Sem a regulação, existem diversos riscos envolvidos, como golpes, danos à reputação, questões de segurança, privacidade, tomada de decisões com base em informações erradas e até vieses nos sistemas. Não à toa, o Tribunal Superior Eleitoral (TSE) aprovou uma resolução que estabeleceu regras para o uso da IA durante as eleições municipais de outubro de 2024, que vedou o uso de deep fakes — técnica que manipula fotos, vídeos e áudios para a criação de conteúdos falsos — além de outras medidas para permitir que os eleitores não acreditassem em materiais produzidos pela ferramenta.
Ao mesmo tempo, quanto mais restrições forem impostas à inovação, mais limitador o processo se torna — ou seja, se houver um controle excessivo, a inovação é sufocada. Por outro lado, se for totalmente liberado o uso da IA, abre-se espaço para os usos indevidos, que podem causar grandes impactos.
Outro ponto de atenção é justamente referente ao papel das big techs que desempenham um papel central nesse debate, influenciando diretamente políticas públicas e regulações. Para que esse movimento de regulação aconteça, essas companhias precisam estar alinhadas e ter o que chamamos de responsabilidade social corporativa, assumindo a responsabilidade de mitigar riscos e coibir o uso indevido da IA, interceptar algo que já é reconhecido como uma deep fake ou IAs com comportamentos nocivos.
Por fim, não acredito que devemos encarar essas mudanças como uma limitação, já que toda alteração cria um ambiente de abundância e restrição. Ao longo da história, diversos momentos significativos ocorreram em nossa sociedade e, embora à primeira vista parecesse algo limitador e restritivo, empresas e pessoas souberam enxergar novas possibilidades. Este é, sem dúvidas, o momento de encararmos essa nova realidade observando quais novas oportunidades serão criadas.
* VP de Estratégia e Inovação da ilegra, empresa global de estratégia, inovação e tecnologia