OpenAI apoia projeto que pode blindar empresas de IA até em tragédias de grande escala
Projeto em Illinois limita a responsabilização de empresas de IA em casos de danos catastróficos e reacende debate sobre segurança e impunidade.
A OpenAI entrou em uma nova frente de desgaste ao apoiar um projeto de lei nos Estados Unidos que pode reduzir drasticamente a responsabilidade de empresas de inteligência artificial em casos de danos extremos. Na prática, a proposta abre caminho para que desenvolvedoras de modelos avançados escapem de punições civis mesmo em cenários de tragédias de grande escala, desde que não tenham agido de forma intencional ou imprudente e tenham publicado relatórios de segurança e transparência.
O ponto que mais chocou críticos e especialistas foi o tamanho do dano previsto no texto. O projeto trata como "danos críticos" situações como morte ou ferimentos graves de 100 pessoas ou mais, prejuízos bilionários e até casos em que sistemas de IA sejam usados para viabilizar armas químicas, biológicas, radiológicas ou nucleares. Ou seja: não se trata de uma regra para pequenos erros de chatbot, mas de uma discussão sobre quem paga a conta quando a tecnologia participa de um desastre de enormes proporções.
O que o projeto muda na prática
A proposta, apresentada em Illinois como o projeto SB 3444, cria um tipo de escudo jurídico para empresas que desenvolvem os chamados modelos de fronteira, aqueles treinados com custos computacionais altíssimos e que hoje incluem os sistemas das maiores companhias do setor. Pelo texto, a empresa não seria responsabilizada por esses "danos críticos" se conseguir sustentar que não agiu com dolo ou imprudência e se tiver colocado no ar seus protocolos e relatórios obrigatórios.
É exatamente esse desenho que acendeu o alerta. Para os críticos, a proposta troca responsabilidade concreta por burocracia de vitrine. Em vez de exigir prova robusta de que a empresa realmente evitou riscos graves, o projeto acaba premiando quem formalizou um protocolo no papel e publicou documentos no site. Para adversários da medida, isso pode criar uma lógica perigosa: a de que basta montar uma estrutura de compliance mínima para reduzir o risco jurídico, mesmo quando a tecnologia venha a ser envolvida em consequências devastadoras.
Por que a OpenAI apoia a proposta
A OpenAI argumenta que medidas desse tipo ajudam a focar no que realmente importa: reduzir os riscos dos sistemas mais poderosos sem travar a inovação. A empresa também repete um discurso que vem ganhando força no Vale do Silício: o de que os Estados Unidos precisam evitar um mosaico de regras diferentes em cada estado e caminhar para um padrão mais uniforme no plano federal.
O problema é que esse raciocínio bate de frente com a percepção pública de que as big techs querem, ao mesmo tempo, vender IA como tecnologia transformadora e pedir proteção extra quando o assunto é responsabilização. Em outras palavras, o setor costuma pedir liberdade para crescer rápido, mas reage com desconforto quando surge a cobrança por assumir os riscos reais desse crescimento.
O debate ficou mais sensível porque a pressão sobre a IA aumentou
O apoio da OpenAI ao projeto chega em um momento especialmente delicado. A empresa já enfrenta críticas, investigações e ações judiciais ligadas a danos associados ao uso de seus sistemas, num cenário que já descrevemos em o clima pesado dentro da OpenAI entre crises, trocas no comando e pressão por lucro. Esse pano de fundo deixa a discussão ainda mais incômoda, porque a defesa de um escudo legal mais amplo passa a soar, para muitos, menos como debate regulatório e mais como uma tentativa de reduzir a conta antes que ela chegue.
Também pesa o fato de que ainda não existe, nos Estados Unidos, uma lei federal clara definindo até onde vai a responsabilidade de quem cria modelos de IA em casos de catástrofe. Esse vazio abriu espaço para disputas estaduais e para projetos radicalmente diferentes entre si. Enquanto alguns textos tentam apertar a fiscalização e ampliar deveres das empresas, outros seguem a direção oposta e tentam limitar a responsabilização — movimento que se soma ao mesmo tipo de zona cinzenta exposta em quando Google News passou a exibir apostas da Polymarket como notícia.
O centro da discussão não é técnico. É político
No fim, a polêmica expõe uma pergunta bem mais profunda do que parece. Se uma IA participa de um desastre grave, de um ataque de grandes proporções ou de um colapso com vítimas em massa, quem responde por isso? O desenvolvedor? O usuário? O deploy? Ninguém? O projeto apoiado pela OpenAI tenta empurrar essa resposta para longe das empresas, desde que elas consigam demonstrar que não agiram de maneira intencional ou temerária.
É aí que mora a reação mais dura dos críticos. Para eles, o texto parte de uma premissa perigosa: a de que empresas que lançam sistemas cada vez mais poderosos deveriam ganhar um colchão extra de proteção justamente no momento em que os riscos se tornam maiores. E isso pode consolidar um precedente desconfortável para o resto do país.
Mais do que um debate jurídico, o caso virou um teste político sobre o futuro da IA. De um lado, as gigantes de tecnologia querem regras que preservem velocidade, escala e competitividade. Do outro, cresce a pressão para que avanço tecnológico não vire sinônimo de lucro privatizado e dano social terceirizado. É essa disputa que está por trás do projeto — e ela está só começando.
Quer ver o atalay.ia na sua redação?
Solicitar demonstração