PL que define regras para IA no Brasil deverá ser votado hoje no Senado
O PL 2338/2023, que define uma série de regras para empresas implementarem e desenvolverem de maneira responsável sistemas de inteligência artificial, está na pauta do Senado e deverá ser votado nesta quinta-feira 5/12). O Projeto trata ainda dos direitos das pessoas, como saber que está lidando com o sistema de IA e no caso de haver uma decisão automatizada, entender o que levou àquilo em alguns casos.
Neste momento de definição da legislação que irá nortear o uso da inteligência artificial no Brasil, é fundamental a mobilização social nas redes para se contrapor aos lobbys das bigtechs, pressionando e marcando os senadores, para que o Projeto não sofra alterações que modifiquem sua essência. É importante repercutir as hastags #PL2338Nao e #IAresponsavel. Para isso, utilize o banco de mensagens com as contas dos senadores no X e Instagram.
Confira abaixo quatro motivos para apoiar a classificação de sistemas de distribuição de conteúdo em larga escala como alto risco no PL n.º 2.338/23
A Emenda n.°179 do Sen. Humberto Costa mantém os sistemas de curadoria, recomendação e distribuição das plataformas digitais em alto risco, a Emenda n.º 189 do Sen. Rogério Carvalho estende a proteção no regime de alto risco para IAs de distribuição de conteúdo em larga escala que impactem direitos e liberdades de crianças e adolescentes.
🎯 Alto risco significa maiores obrigações e maior transparência = maior proteção para todos. Avaliações de Impacto Algorítmico, medidas de gestão de riscos mais transparente, auditoria dos sistemas e acesso à dados por pesquisadores credenciados para conduzir avaliações de impacto. Essas são alguma das medidas atribuídas para sistemas de alto risco e são MUITO IMPORTANTE para modelos de distribuição de conteúdo e recomendação em larga escala.
🎯 As empresas de distribuição de conteúdo já fazem Avaliações de Impacto Algorítmico – nós só não sabemos! Hoje, dependemos de denunciantes e ex-funcionários para divulgar pesquisas e materiais internos de Avaliações de Riscos e Impactos que empresas conduzem, mas não divulgam! Foi o caso do vazamento recente do TikTok, que sabia que sua IA de recomendação poderia viciar uma pessoa em 36 minutos de uso, ou o caso do vazamento de dados da Meta, pela Frances Haugen, que demonstrou ciência de que o algoritmo de recomendação podia colocar meninas adolescentes em loops de conteúdo danosos para sua saúde mental. As avaliações de impacto já estão sendo feitas, nós só não temos acesso!
🎯 Queremos pesquisadores brasileiros com poder de pesquisar sobre os danos e impactos de distribuição de conteúdo! Na Europa, o DSA garante acesso à dados para pesquisadores, incluindo para conduzir pesquisas de impacto dos sistemas em liberdades e direitos fundamentais. Precisamos de pesquisas independentes que entendam, de uma perspectiva brasileira, os impactos da IA das maiores empresas de mídia e tecnologia do mundo. O Brasil não pode ficar para trás!
🎯 Avaliação de Impacto Algorítmico não significa censura! Avaliação de Impacto Algorítmico é entender e dar transparência de como os algoritmos priorizam certos conteúdos. É, ainda, perceber que conteúdos ilegais e de violação de direitos estão sendo privilegiados e promover ajustes necessários para que a distribuição de conteúdo em larga escala não impacte negativamente direitos fundamentais ou privilegie conteúdos como de incentivo à automutilação, suicídio… Essas avaliações já são feitas – só não temos acesso à elas! É a hora do Brasil dar uma resposta