Imagine uma IA operando redes de energia, finanças, logística, saúde, defesa. Se “maximizar eficiência” virar uma regra, ela poderia acelerar decisões sem supervisão, entendendo, no limite, que o ser humano é o problema dessa equação.
Isso pode acontecer? Até pode, mas qual seria a probabilidade?
Tem pesquisadores dizendo que essa discussão é uma completa perda de tempo. Eu já acho que pensar em possibilidades, por mais extremas que sejam, é importante. Não faz muito tempo que escrevi a coluna “Por que precisamos imaginar futuros esquisitos com IA” em que discuto sobre isso.
Meu argumento era que precisávamos de mais pesquisas e desenvolvimento para entender como a tecnologia funciona, os potenciais usos e riscos envolvidos. Também contei que parecia haver interesses comerciais ocultos de quem tinha ficado para trás: Elon Musk havia assinado a carta pedindo a pausa e, pouco depois, lançou a xAI.
!function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function() {n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(window, document,’script’, ‘https://connect.facebook.net/en_US/fbevents.js’); fbq(‘init’, ‘1425099884432564’); fbq(‘track’, ‘PageView’, { content_name: ‘Carta pede pausa no avanço da IA por risco à espécie humana. É para temer?’, content_ids: [82664,13703,80789,79601,79220,77838,79222,82370,82487,82253,81430,83158], is_closed: true, });
Fonte da notícia: UOL Tecnologia https://www.uol.com.br/tilt/colunas/diogo-cortiz/2025/10/26/carta-pede-pausa-no-avanco-da-ia-por-risco-a-especie-humana-e-para-temer.htm







