O Fantasma na Máquina se Tornou Insegurável

Houve um tempo, não muito distante, em que o risco no mundo da tecnologia era calculável. Podíamos auditar o código, entender a lógica de um mainframe e, com uma boa dose de café, prever o comportamento de um sistema. Eu mesmo já passei noites em claro com listagens de COBOL que, apesar de teimosas, eram fundamentalmente honestas. Elas faziam exatamente o que foram programadas para fazer, para o bem ou para o mal. Hoje, vivemos na era da caixa-preta, e parece que até mesmo a indústria que lucra calculando probabilidades está jogando a toalha. A inteligência artificial, a nova coqueluche do Vale do Silício, está se tornando arriscada demais para ser segurada.

De acordo com uma reportagem do Financial Times, ecoada pelo TechCrunch, gigantes do setor de seguros, incluindo nomes de peso como AIG, Great American e WR Berkley, estão batendo na porta dos reguladores norte-americanos com um pedido inusitado: permissão para excluir a responsabilidade por danos causados por IA de suas apólices gerais para empresas. Um subscritor, em uma declaração que soa como um suspiro de desespero, descreveu os modelos de IA como uma “caixa-preta grande demais”. Em outras palavras, eles não conseguem precificar o risco de algo cujo processo de tomada de decisão é, por natureza, opaco e muitas vezes surpreendente até para seus próprios criadores. É mais fácil prever o placar de um jogo de dados viciados do que o próximo devaneio de um algoritmo.

Quando a IA Erra, a Conta é Milionária

O receio das seguradoras não é mera especulação teórica. A lista de incidentes recentes serve como um trailer de um filme de desastre corporativo que ninguém quer estrelar. Os exemplos citados na reportagem pintam um quadro claro do que está tirando o sono dos executivos de seguros:

  • O Vendedor Fantasma da Air Canada: Em um caso que se tornou célebre, o chatbot da companhia aérea simplesmente inventou uma política de descontos que não existia. Pressionada legalmente, a Air Canada teve que honrar a promessa de seu funcionário digital, provando que um erro de algoritmo pode ter consequências financeiras bem reais.
  • O Dedo-Duro do Google: A ferramenta AI Overview, do Google, acusou falsamente uma empresa de energia solar de ter problemas legais. O resultado? Um processo de US$ 110 milhões por difamação. Um valor que faz qualquer conselho de administração reconsiderar o uso de IA para sumarizar informações publicamente.
  • O Golpe de Mestre Digital: Fraudadores utilizaram uma versão deepfake de um executivo sênior para enganar funcionários da Arup, uma firma de engenharia de Londres, e autorizar uma transferência de US$ 25 milhões. A chamada de vídeo parecia perfeitamente legítima, demonstrando um nível de sofisticação em fraudes que desafia os mecanismos de segurança tradicionais.

Esses incidentes ilustram a amplitude do problema: desde pequenas gafes que geram prejuízos inesperados até ataques criminosos complexos e ações judiciais de valores astronômicos.

O Pesadelo Sistêmico: Milhares de Sinistros de Uma Só Vez

Contudo, o que realmente aterroriza a indústria de seguros não é um único pagamento de US$ 110 milhões aqui ou US$ 25 milhões ali. O verdadeiro pavor tem um nome: risco sistêmico. Como um executivo da Aon, uma das maiores corretoras de seguros do mundo, explicou de forma direta, as seguradoras conseguem lidar com uma perda de US$ 400 milhões para uma única empresa. O que elas não conseguem suportar é um evento que desencadeie 10.000 perdas simultaneamente.

A lógica é simples e assustadora. Um único modelo de IA, amplamente utilizado por milhares de empresas ao redor do mundo, pode conter uma falha ou vulnerabilidade latente. Se essa falha for explorada ou vier à tona, ela não causará um problema isolado, mas uma cascata de sinistros em escala global. Imagine um modelo de linguagem popular que, após uma atualização, começa a vazar dados confidenciais de todos os seus clientes corporativos ao mesmo tempo. O volume de ações judiciais e perdas financeiras seria catastrófico e potencialmente capaz de quebrar as seguradoras que oferecessem cobertura.

Um Futuro de Incerteza Calculada

Estamos diante de um paradoxo fascinante. A tecnologia que promete otimizar todas as indústrias e prever todos os resultados possíveis tornou-se ela mesma uma fonte de imprevisibilidade tão grande que desafia a própria lógica do seguro. A decisão dessas empresas de se afastarem da cobertura de IA pode forçar as corporações a assumirem sozinhas o fardo financeiro de qualquer gafe algorítmica. Isso pode, por um lado, desacelerar a adoção irrefletida da tecnologia e, por outro, criar um mercado para apólices de seguro hiperespecializadas e, provavelmente, caríssimas.

No fim das contas, talvez a pressa em abraçar o novo nos fez esquecer o valor da previsibilidade. Enquanto o mundo corre para implementar a próxima IA revolucionária, a indústria cujo negócio é apostar no futuro está dizendo, em alto e bom som, que essa aposta é arriscada demais. Talvez um pouco daquela clareza dos velhos e bons sistemas não fizesse mal a ninguém.