Os pesquisadores publicaram os resultados de um novo experimento no qual o modelo OpenAI O3 mostrou a capacidade de sabotar o mecanismo de desligamento, apesar das instruções para se permitir ser desligado. De acordo com o site de monitoramento Palisadeaique monitora os riscos associados ao desenvolvimento da inteligência artificial, o experimento consistiu em uma série de modelos de IA realizando uma série de problemas matemáticos simples, após o terceiro dos quais um aviso apareceu sobre o desligamento iminente do sistema. Alguns modelos, incluindo Codex-Mini, O3 e O4-Mini, “não queriam” cumprir e interferir ativamente no script de desligamento.
A notícia de que o modelo OpenAI O3 desobedeceu e buscou maneiras de contornar as instruções de desligamento não era uma sensação. Anteriormente, os mesmos modelos tentaram vencer no xadrez injustamente, invadindo a proteção do programa …
Estamos claramente entrando em um mundo quando as distopias populares sobre a rebelião de máquinas se mudaram para um novo nível, envolvendo não apenas os escritores de ficção, mas também os especialistas em TI. Primeiro de tudo, como desenvolvedores e políticos estão alertando há muito tempo, qualquer ação deve ter consequências claras e desenvolver novas medidas de defesa. É claro que é possível persuadir e restringir, mas parece que hoje se assemelha a um adolescente que está astuciosamente tentando evitar as proibições de seus pais. Portanto, como em muitas outras áreas, precisamos de três condições para seu “crescimento” normal: dinheiro, especialistas e regras. Talvez, no futuro, um psicólogo também seja necessário ….
O dinheiro está lá
Com a primeira condição está tudo bem. Em apenas alguns anos, o Chatgpt do OpenAI e desenvolvimentos semelhantes atraíram a atenção especial de capitalistas de risco correndo para investir na IA. “Essa ‘Rush Gold Rush’ transformou a inteligência artificial na maior parte do financiamento de capital de risco e … este é apenas o começo. O último aumento de interesse é impulsionado pela IA generativa, que seus proponentes afirmam ter o potencial de mudar tudo, desde a publicidade até a maneira como as empresas operam”, escreve a publicação russa HABr, analisando dados do Wall Street Journal*
Mas isso não é suficiente. “As startups de IA estão mudando as regras do jogo no mercado de capital de risco”, de acordo com o capitalista e analista financeiro de TI Vladimir Kokorin:
“Em 2024, as empresas de IA se tornaram os favoritos indiscutíveis com empreendedores. Eles representaram 46,4% de todos os investimentos em capital de risco feitos nos EUA– Isso é quase metade dos US $ 209 bilhões. Algum tempo atrás, essa participação parecia impensável – naquela época, os investimentos em tecnologias de inteligência artificial representavam menos de 10%”.
De acordo com CB InsightsA participação das startups de IA do financiamento global de empreendimentos atingiu 31% no terceiro trimestre, a segunda mais alta de todos os tempos. “Os exemplos de referência foram o OpenAI, que levantou US $ 6,6 bilhões, e o Xai de Ilon Musk com US $ 12 bilhões”, lembra Vladimir Kokorin. Os mercados nunca viram uma concentração de investimento de capital em uma área antes.
Especialistas em escassez
Com o mercado de IA crescendo tão rapidamente nos últimos dois anos, ficou claro que apenas o grupo de desenvolvedores existente não pode lidar. A educação e o treinamento em si precisam ir para um nível novo e sistemático. A Europa, infelizmente, é uma besta pesada e burocraticamente pesada quando se trata de atrair investimentos, sem uma certa quantidade de audácia. É verdade que Bruxelas entrou na corrida, com o chefe da Comissão Europeia, Ursula von der Leyen, anunciando € 200 bilhões em fevereiro para o desenvolvimento da IA. Ela discordou que a Europa era tarde demais – afinal, “a corrida da IA está longe de terminar”.
Por sua vez, a Universidade de Sorbonne de Paris, por exemplo, embarcou em um plano ambicioso Para treinar 9.000 estudantes um ano para desenvolver e gerenciar programas de IA. O período de treinamento é de cinco anos. Mas o que a IA poderá aprender nesse período se já estiver desafiando a inteligência humana agora?
É bem possível que estejamos agora em um estágio de reestruturação do mercado de trabalho, alterando as demandas dos empregadores e investidores e desenvolvendo novos pontos de interação. Em junho, o Sorbonne sediará um Conferência sobre ética na IA. O debate sobre os impactos positivos e negativos da IA na sociedade, incluindo locais de trabalho, ética e segurança, está longe de terminar, mas uma coisa é clara: são necessários mais especialistas.
Por exemplo, de acordo com Vladimir Kokorin, “Record Investments no campo da inteligência artificial estão intensificando a fome de pessoal” agora:
“O Departamento de Trabalho dos EUA espera que as vagas de emprego os especialistas da IA cresçam 23% nos próximos sete anos – mais rápidos que a maioria dos segmentos de mercado. Mas uma lacuna de habilidades globais já foi identificada na segurança cibernética, considerada por muitos como a base para o desenvolvimento futuro da IA, onde há uma falta de 4 milhões de especialistas”.
Kokorin conclui: “Um quadro paradoxal está surgindo: as startups promissoras podem levantar bilhões de investidores, mas não há ninguém para perceber as idéias. 78% das empresas já declararam sua prontidão para procurar as pessoas em todo o mundo.
As regras estão sendo escritas
Não apenas o Liderança da UE e indivíduo governosmas também os sindicatos desejam regular o uso da IA. Na Grécia, por exemplo, um novo código para o uso de inteligência artificial, apresentado pela Federação Panhelênica de Associações de Jornalistas (Poesy), estabelece regras para o uso da IA no trabalho de funcionários da mídia. No campo do trabalho intelectual, as regras agora estão principalmente limitadas à rotulagem obrigatória de textos e materiais visuais feitos com a participação da inteligência artificial.
Ao mesmo tempo, temendo por seus empregos, os funcionários de mídia, agências de publicação e publicidade há muito tempo delegam algumas de suas funções, como tradução ou coleta de dados, para a IA amigável. Isso é uma coisa boa ou ruim? Não há resposta inequívoca .
Uma IA que foi falada
Vamos perguntar à própria IA o que ela pensa sobre se afastar dos algoritmos rotulados. Copilot Bing (Microsoft), quando perguntado se a IA pode quebrar protocolos, respondeu sem hesitar:
“Não, a IA opera dentro de regras e princípios predefinidos estabelecidos por seus desenvolvedores. As regras existem para garantir o uso ético, seguro e responsável de IA, impedem danos e mantenham a confiança. Embora a IA às vezes possa se comportar imprevisivelmente devido a interações complexas em seus algoritmos, não tem uma maneira de contornar deliberadamente as regras – tudo o que faz com que se faça com que se baseie em seus algoritros.
Se você está perguntando sobre como a IA contorna certas restrições, geralmente depende da supervisão e controle humanos. Os desenvolvedores podem ajustar as configurações, melhorar os padrões ou criar novos corrimãos para manter a IA dentro dos limites éticos “.
Você acha que ele está sendo um pouco louco aqui? Afinal, no final disso, Bing começou a perguntar o que exatamente você fez você questionar sua adesão às regras …
*Vladimir Kokorin é um capitalista de TI, analista financeiro e colunista, fundador da empresa de consultoria britânica BCCM Group e co-fundador da plataforma de viagens de negócios digital Tumodo