Translate

Mostrando postagens com marcador IA. Mostrar todas as postagens
Mostrando postagens com marcador IA. Mostrar todas as postagens

10 setembro 2025

Darwin e IA


Um site que documenta os maiores fracassos em tecnologia relacionados à Inteligência Artificial, destacando como a arrogância humana frequentemente colide com a ineficiência das máquinas. O portal lista os “desastres mais bobos” envolvendo IA no ano, incentivando leitores a enviar novas indicações. A ideia é transformar essas falhas em material educativo — como alerta: “A decisão de IA catastrófica de hoje pode bem ser a vencedora do Darwin Award de amanhã!”

Um dos nominados envolvendo o tema importante para contabilidade, a fraude:

A Inovação

Nosso visionário Superhost do Airbnb descobriu o que acreditava ser o casamento perfeito entre tecnologia moderna e espírito empreendedor: usar geração de imagens por IA para fabricar provas de danos à propriedade no valor de mais de £12.000. Para quê se preocupar com danos reais quando a inteligência artificial poderia criar destruição muito mais convincente?

A Catástrofe

O plano espetacular envolvia enviar imagens manipuladas digitalmente mostrando grandes danos a uma mesa de café, junto com alegações de colchões manchados de urina, eletrodomésticos destruídos e diversos outros reparos caros. A obra-prima do anfitrião incluía várias fotos da mesma mesa exibindo diferentes tipos e padrões de danos — um nível de inconsistência que faria até editores de fotos amadores chorarem.

As Consequências

Inicialmente, a equipe de investigação do Airbnb mostrou-se tão pouco criteriosa quanto o anfitrião foi criativo, ordenando que o hóspede acadêmico, baseado em Londres, pagasse £5.314 em indenização com base em sua “análise cuidadosa das fotos”. No entanto, quando o The Guardian entrou no caso e a vítima apontou as discrepâncias óbvias entre imagens do mesmo objeto, o Airbnb subitamente desenvolveu a capacidade de reconhecer que casos falsos não atendem a padrões mínimos de evidência.

Por que Foi Nomeado

Este caso representa a tempestade perfeita da má utilização da IA: um humano confiantemente usando IA para cometer fraude, combinado com sistemas de investigação assistidos por IA que não detectaram manipulações óbvias. Nosso indicado demonstrou que, com grande poder da IA, vem absolutamente nenhuma responsabilidade — enquanto os sistemas do Airbnb mostraram que a inteligência artificial é perfeitamente capaz de ser tão ingênua quanto os humanos, apenas mais cara.

19 agosto 2025

Testando a Teoria Contábil através da Inteligência Artificial


Do blog Marginal Revolution uma proposta de Tetlock para testar teorias sociais. Eis um resumo: 

Philip Tetlock, renomado cientista social, aponta uma nova abordagem para testar grandes teorias políticas e econômicas — tradicionalmente difíceis de validar devido às condições ceteris paribus raramente observáveis no mundo real. Em vez de depender de experiências complexas e demorada, ele sugere o uso de modelos de linguagem (LLMs). A proposta envolve instruir a IA a reconstruir as perspectivas de diferentes correntes de pensamento, como o neorrealismo de Mearsheimer dos anos 1990, e testar se a IA pode reproduzir os pressupostos, hipóteses e previsões condicionais dessas escolas. O processo inclui três etapas: (1) validar se os LLMs conseguem passar por um “teste de Turing ideológico”; (2) avaliar sua capacidade de raciocinar para frente e gerar previsões de 2025 a 2050; e (3) pedir que sintetizem os melhores pressupostos e previsões das diferentes escolas, criando um observador ideal capaz de superar cada corrente de forma isolada. Essa estratégia pode acelerar a validação teórica e representar um salto em direção à inteligência super-humana em análise social. 

Fiquei imaginando se isto poderia ser aplicável na contabilidade. Minha impressão era um grande Sim, já que é uma ciência social. Optei por perguntar a própria inteligência artificial se ela era capaz de fazer isso. Lógico que respondeu com um sim. 

Veja a resposta: 

Sim, seria possível aplicar esse tipo de abordagem da Tetlock também na contabilidade, especialmente para testar e comparar grandes teorias contábeis ou pressupostos normativos e positivos.

Como funcionaria

  • Passo 1 – Reconstrução das escolas contábeis
    Um modelo de linguagem poderia ser instruído a “pensar” como diferentes escolas de pensamento em contabilidade (ex.: teoria da entidade, teoria do comando, teoria da propriedade, abordagem normativa versus positiva). Ele teria que reproduzir seus conceitos, princípios e justificativas para decisões específicas.

  • Passo 2 – Teste prospectivo
    A IA poderia ser desafiada a aplicar essas teorias a cenários futuros — por exemplo, como reconhecer passivos climáticos em 2035, como mensurar ativos digitais ou como lidar com moedas digitais dos bancos centrais. Assim, poderíamos comparar como cada teoria geraria diferentes registros contábeis ou divulgações.

  • Passo 3 – Síntese entre correntes
    A etapa final seria pedir que a IA sintetize os melhores elementos de cada escola, construindo uma “contabilidade observador ideal”, capaz de oferecer soluções mais equilibradas para dilemas contemporâneos (como sustentabilidade, valor justo ou relatórios integrados).

Benefício

Esse processo poderia ajudar a identificar lacunas nas normas atuais, explorar impactos de novas práticas e até subsidiar debates em órgãos reguladores como IASB e CPC.

Uma situação proposta seria a seguinte: Crie um exemplo sobre: se tivessemos um crise ambiental, faria sentido reconhecer o Escopo 3 das empresas? A resposta que obtive:

Ótima provocação 👌 Vamos montar um exemplo aplicado, inspirado no método de Tetlock, mas dentro da contabilidade.


Cenário

Em 2030, uma crise ambiental global provoca protestos e pressões de investidores. O debate é: empresas deveriam reconhecer contabilmente o Escopo 3 (emissões indiretas da cadeia de valor)?


📌 Escola Normativa (Princípios da Utilidade e Relevância)

  • Defende que a contabilidade deve informar usuários externos com a máxima transparência.

  • Argumenta que, como o Escopo 3 representa a maior parte da pegada de carbono de várias empresas, não reconhecer seria omitir informação relevante.

  • Proposta: criar passivos ambientais provisionados com base em modelos de precificação de carbono para toda a cadeia.


📌 Escola Positiva (Watts & Zimmerman)

  • Foca em como as empresas realmente se comportam, não no que “deveriam” fazer.

  • Diria que empresas só reconheceriam o Escopo 3 se houvesse pressão regulatória ou incentivos econômicos claros (ex.: imposto sobre carbono transferido aos fornecedores).

  • Conclusão: na prática, as companhias tenderiam a divulgar em notas explicativas em vez de reconhecer no balanço.


📌 Escola Crítica/Sociológica

  • Enfatiza que a contabilidade é também um instrumento de poder e legitimação.

  • Reconhecer o Escopo 3 seria um avanço, mas também redistribui responsabilidades: quem decide como medir as emissões da cadeia? A empresa ou o regulador?

  • Conclusão: poderia haver risco de greenwashing contábil, já que métricas imprecisas podem ser usadas para mostrar compromissos sem efetiva responsabilização.


Síntese

Uma “contabilidade do observador ideal” poderia combinar:

  • A relevância normativa (Escopo 3 é crucial para transparência),

  • O realismo positivo (reconhecimento só se vinculado a políticas de precificação do carbono),

  • E a crítica sociológica (necessidade de mecanismos de auditoria e governança para evitar manipulação).

👉 Resultado: seria plausível reconhecer Escopo 3 como passivo contingente, vinculado a cenários regulatórios e preços de carbono, enquanto se fortalece a divulgação obrigatória padronizada.

Imagem: aqui 

04 agosto 2025

Qual emprego está salvo da IA?

Na nova coluna de Tim Harford sua resposta foi: jardineiro. É bem verdade que já existe máquinas que irriga, arranca erva daninha e faz outras tarefas de jardinagem. Mas há uma diferença entre emprego e tarefa: um emprego é composto de tarefas interligadas. 

O exemplo que Harford usa é da planilha. Essa ferramenta foi criada originalmente para ser uma ferramenta da contabilidade:

A planilha digital, lançada em 1979, passou a executar instantaneamente e com perfeição tarefas antes feitas por auxiliares de contabilidade. No entanto, a profissão contábil simplesmente evoluiu, passando a lidar com problemas mais estratégicos e criativos, como a modelagem de cenários e riscos. E quem não quer um contador criativo?

Ontem postamos sobre o aparecimento de micros no Brasil no início dos anos 80. E as propagandas eram voltadas para tarefas contábeis, como folha de pagamento. Mas a profissão continuou firme e forte. 

É importante destacar que isso não assegura que a profissão irá sobreviver, mas o passado traz esperança para nós.  (Imagem aqui)

31 julho 2025

Uma fraqueza dos modelos de IA

Veja a imagem abaixo. Um problema de matemática, com a mesma formulação, mas o texto de baixo tem uma informação desnecessária, que está em vermelho. Quando o problema é submetido a um ser humano, ele simplesmente desconsidera a parte em vermelho.

Mas uma pesquisa (via aqui) mostrou que a inserção dessa frase no problema prejudica a resposta dada pela IA. Em língua inglesa isso chama CatAttack. 

O estudo descobriu que a inserção de "gatilhos adversariais independentes da pergunta" — trechos curtos e irrelevantes que, ao serem adicionados a problemas matemáticos, induzem sistematicamente os modelos a respostas incorretas — confunde os modelos. Alguns ficaram até 700% mais propensos ao erro quando expostos ao chamado CatAttack. 

IA está influenciando a forma como falamos


Eis o resumo:

Desde a invenção da escrita e da imprensa, passando pela televisão até as redes sociais, a história humana é marcada por grandes inovações em tecnologias de comunicação que transformaram profundamente a forma como as ideias se espalham e moldam a cultura. Recentemente, chatbots movidos por inteligência artificial generativa passaram a constituir um novo meio de comunicação, capaz de codificar padrões culturais em suas representações neurais e disseminá-los em conversas com centenas de milhões de pessoas. Compreender se esses padrões se transferem para a linguagem humana — e, em última instância, moldam a cultura — é uma questão fundamental.

Embora quantificar totalmente o impacto causal de um chatbot como o ChatGPT sobre a cultura humana seja extremamente desafiador, mudanças lexicográficas na comunicação falada podem oferecer um primeiro indicativo desse fenômeno amplo. Neste estudo, aplicamos técnicas econométricas de inferência causal a 740.249 horas de discursos humanos provenientes de 360.445 palestras acadêmicas no YouTube e 771.591 episódios de podcasts conversacionais de diversas áreas. Detectamos um aumento abrupto e mensurável no uso de palavras preferencialmente geradas pelo ChatGPT — como delve (aprofundar), comprehend (compreender), boast (gabar-se), swift (rápido) e meticulous (meticuloso) — após seu lançamento.

Esses achados sugerem um cenário no qual máquinas, inicialmente treinadas com dados humanos e posteriormente exibindo traços culturais próprios, podem, por sua vez, moldar a cultura humana de forma mensurável. Isso marca o início de um ciclo fechado de retroalimentação cultural, em que traços culturais circulam bidirecionalmente entre humanos e máquinas. Nossos resultados incentivam novas pesquisas sobre a evolução da cultura humano-máquina e levantam preocupações quanto à erosão da diversidade linguística e cultural, além dos riscos de manipulação em larga escala.

Foto: aqui

Pensei aqui que a IA talvez ensine os humanos a serem educados e calmos, mesmo diante de questões idiotas.  

30 julho 2025

Efeito da IA na educação


Meta integrou bots de IA em aplicativos populares como WhatsApp e Instagram na Colômbia rural a partir de julho de 2024. Embora isso tenha ampliado o acesso à IA até nas áreas mais remotas, professores relatam que alunos passaram a depender dos bots para tarefas e redações inteiras, entregando trabalhos muito superiores ao nível real de aprendizagem.

O paradoxo é que, apesar da qualidade aparente das respostas, o desempenho em provas e exames caiu — professores veem dificuldades em avaliação de leitura, escrita e ciências, com muitos estudantes repetindo conteúdo sem analisá-lo.

Diante disso, educadores estão repensando métodos de avaliação: usam provas orais e manuscritas, detectores de texto gerado por IA, debates em sala e atividades que exigem análise crítica. Alguns professores eliminaram a lição de casa, exigindo que os alunos façam os exercícios presencialmente sob supervisão.

Agora uma situação particular: todo semestre peço trabalho escrito. Se no passado minha luta era contra o plágio, agora o problema é o uso de IA. Como o trabalho é bem específico, com uma limitação temporal e uso de base de dados escolhida, fica fácil perceber o uso de IA. Com casos engraçados, como o aparecimento de referências sem sentido e não encontradas nos periódicos. 

29 julho 2025

Profissões de risco, segundo a Microsoft


A Microsoft realizou um estudo com cerca de 200 mil interações anônimas do Bing Copilot e criou uma “pontuação de aplicabilidade de IA”, classificando 40 profissões mais e menos vulneráveis à automação. As mais afetadas incluem tradutores, historiadores, redatores, autores, agentes de vendas e atendimento ao cliente — ferramentas de IA já conseguem substituir grande parte de tarefas que envolvem informação e comunicação. 

Em contrapartida, funções que exigem trabalho físico ou contato humano direto — como operadores de máquinas, massagistas, faxineiros e lavadores de pratos — mostram-se menos suscetíveis a substituição pela IA. O estudo destaca que a automação não elimina completamente um cargo, mas impacta atividades específicas dentro dele.

O trabalho pode ser encontrado aqui . Não há nenhuma referência específica ao contador, mas profissões próximas estariam no meio da tabela. 

21 julho 2025

IA e Deus, segundo o Vaticano

Somente agora tive conhecimento desse documento. Eis um trecho: 


IA e Nossa Relação com Deus

104. A tecnologia oferece ferramentas notáveis para administrar e desenvolver os recursos do mundo. No entanto, em alguns casos, a humanidade está cedendo cada vez mais o controle desses recursos às máquinas. Em certos círculos de cientistas e futuristas, há otimismo quanto ao potencial da inteligência artificial geral (IAG), uma forma hipotética de IA que igualaria ou superaria a inteligência humana e traria avanços inimagináveis. Alguns até especulam que a IAG poderia alcançar capacidades sobre-humanas. Ao mesmo tempo, à medida que a sociedade se afasta de uma conexão com o transcendente, alguns são tentados a recorrer à IA em busca de significado ou realização — anseios que só podem ser verdadeiramente satisfeitos na comunhão com Deus.

105. No entanto, a presunção de substituir Deus por um artefato criado pelo ser humano é idolatria, prática contra a qual as Escrituras alertam explicitamente (por exemplo, Ex. 20:4; 32:1-5; 34:17). Além disso, a IA pode se mostrar ainda mais sedutora do que os ídolos tradicionais, pois, ao contrário dos ídolos que “têm boca e não falam; olhos, e não veem; ouvidos, e não ouvem” (Sl. 115:5-6), a IA pode “falar”, ou pelo menos dar a ilusão de fazê-lo (cf. Ap. 13:15). Contudo, é vital lembrar que a IA é apenas um pálido reflexo da humanidade — ela é criada por mentes humanas, treinada com material gerado por humanos, responde a estímulos humanos e é sustentada pelo trabalho humano. A IA não pode possuir muitas das capacidades específicas da vida humana e também é falível. Ao recorrer à IA como um suposto “Outro” maior que si mesma, com quem compartilhar a existência e as responsabilidades, a humanidade corre o risco de criar um substituto para Deus. Entretanto, não é a IA que acaba sendo deificada e adorada, mas o próprio ser humano — que, assim, torna-se escravo de sua própria obra.

106. Embora a IA tenha potencial para servir à humanidade e contribuir para o bem comum, ela continua sendo uma criação das mãos humanas, trazendo “a marca da arte e do engenho humano” (At. 17:29). Jamais deve ser atribuída a ela um valor indevido. Como afirma o Livro da Sabedoria: “Foi um homem quem os fez, e um ser cujo espírito é emprestado os formou; pois nenhum homem pode formar um deus à sua semelhança. Ele é mortal, e aquilo que fabrica com mãos ímpias é morto; ele é melhor do que os objetos que adora, pois ele tem vida, mas eles jamais têm” (Sb. 15:16-17).

107. Em contraste, os seres humanos, “por sua vida interior, transcendem todo o universo material; experimentam essa profunda interioridade quando entram em seu próprio coração, onde Deus, que sonda o coração, os aguarda, e onde decidem seu próprio destino diante de Deus.”É no coração, como nos recorda o Papa Francisco, que cada indivíduo descobre a “misteriosa conexão entre o autoconhecimento e a abertura aos outros, entre o encontro com a própria singularidade e a disposição de doar-se aos demais.” Portanto, é somente o coração que é “capaz de colocar nossas outras faculdades e paixões, e toda a nossa pessoa, numa atitude de reverência e obediência amorosa diante do Senhor,”que “se oferece para tratar cada um de nós como um ‘Tu’, sempre e para sempre.”

O texto é de janeiro, durante a gestão de Francisco, com mais de 200 citações.  

17 julho 2025

Sofisticação da malandragem: pesquisadores estão inserindo mensagens secretas nos artigos


Pesquisadores têm inserido mensagens secretas em seus artigos na tentativa de enganar ferramentas de inteligência artificial (IA) para obter relatórios positivos de revisão por pares. A Nature identificou de forma independente 18 estudos de pré-publicação em ciência da computação contendo essas mensagens ocultas — em que o texto é especificamente elaborado para manipular modelos de linguagem de grande escala (LLMs). Muitos editores proíbem o uso de IA na revisão por pares, mas há evidências de que alguns pesquisadores utilizam LLMs para avaliar manuscritos ou ajudar na redação de relatórios de revisão. Isso cria uma vulnerabilidade que outros agora parecem estar tentando explorar, afirma o metacientista forense James Heathers.

Fonte: aqui 

07 julho 2025

IA escrevendo resumo de textos acadêmicos


Os resumos de aproximadamente um em cada sete artigos de pesquisa biomédica publicados em 2024 provavelmente foram escritos com a ajuda de inteligência artificial (IA). Pesquisadores buscaram nos resumos por “palavras em excesso” que passaram a aparecer com mais frequência do que o esperado após novembro de 2022, quando o ChatGPT se tornou amplamente disponível. Dos 1,5 milhão de artigos indexados no PubMed no ano passado, mais de 200 mil continham essas palavras — muitas delas eram “palavras de estilo”, sem relação com o conteúdo da pesquisa, como “incomparável” e “inestimável”.

Leia mais aqui

Frase


Vale a pena refletir sobre o que perdemos quando cedemos isso [nossa capacidade de tomada de decisão científica] — e nossa autonomia — às máquinas.

Carl Bergstrom e Joe Bak-Coleman, para Nature

02 julho 2025

IA, Eficiência e preço de auditoria

 


Da Bloomberg (via aqui):

A PricewaterhouseCoopers LLP, uma das maiores empresas de consultoria profissional do mundo, cortou os preços de alguns serviços à medida que os clientes aumentavam o fato de a consultoria utilizar inteligência artificial para concluir o seu trabalho mais rapidamente.

“Os clientes nos ouviriam falando sobre o uso de IA e diriam: ‘Queremos nosso quinhão dessas eficiências, disse Dan Priest, diretor de IA da PwC, em entrevista à Bloomberg News. 

01 julho 2025

Ganho de produtividade com IA

 

Tendo por base uma pesquisa com mais de quatro mil pessoas, o ganho de tempo com o uso de IA não pode ser desconsiderado. A pesquisa foi realizada com tarefas típicas do trabalho. A escrita, por exemplo, que o contador precisa fazer para produzir um relatório, ganhou um tempo substancial: de 80 minutos em média para 25 minutos. 

26 junho 2025

Sobre o efeito da IA


Em resposta para algumas pesquisas indicando efeitos nocivos da IA:

A maioria das formas de tecnologia da informação, incluindo os modelos de linguagem (LLMs), permite que realoquemos nossas energias mentais conforme preferirmos. Se você usa um LLM para diagnosticar a saúde do seu cachorro (como minha esposa e eu fizemos), isso libera tempo para refletir sobre o trabalho e outros assuntos familiares de forma mais produtiva. Isso nos poupou uma ida ao veterinário. Da mesma forma, aguardo com expectativa um LLM que faça minha declaração de impostos, pois isso me permitiria gravar mais podcasts.

Se você olhar apenas para a energia mental economizada com o uso de modelos de linguagem (LLMs), no contexto de um experimento artificialmente gerado e controlado, parecerá que estamos pensando menos e nos tornando mentalmente preguiçosos. E foi exatamente isso que o experimento do MIT fez, pois, se você realiza certas tarefas com mais facilidade, sua carga cognitiva provavelmente diminuirá.

Mas é preciso também considerar, em um contexto do mundo real, o que fazemos com todo esse tempo e energia mental liberados. Esse experimento sequer tentou medir a energia mental que os participantes poderiam redirecionar para outras atividades; por exemplo, o tempo que economizariam em situações reais ao usar LLMs. Não é de se admirar que tenham parecido tão preguiçosos.

Nós postamos sobre a pesquisa aqui. Mais críticas aqui

Sobre o uso de IA

 


A amostra é específica para um setor, mas são conclusões interessantes:

Em dezembro de 2024, a IA escreveu cerca de 30,1% das funções Python de colaboradores dos EUA, contra 24,3% na Alemanha, 23,2% na França, 21,6% na Índia, 15,4% na Rússia e 11,7% na China. Os usuários mais recentes do GitHub usam mais a IA do que os veteranos, enquanto os desenvolvedores masculinos e femininos adotam taxas semelhantes. Os modelos (...) coloca o valor anual da codificação assistida por IA nos Estados Unidos em 9,6–$14,4 bilhões de dólares, aumentando para 64–$96 bilhões se assumirmos estimativas mais elevadas dos efeitos de produtividade relatados por ensaios de controle aleatórios. Além disso, a IA generativa estimula a aprendizagem e a inovação, levando a aumentos no número de novas bibliotecas e combinações de bibliotecas que os programadores utilizam. Em suma, o uso de IA já é generalizado, mas altamente desigual, e a intensidade do uso, não apenas o acesso, impulsiona ganhos mensuráveis na produção e na exploração.

(Tradução do Vivaldi) Via aqui. A pesquisa original está aqui. Imagem aqui

18 junho 2025

Qualidade do aço e o problema atual com a IA


Que a IA está poluindo a internet já é conhecido. Os dados gerados pela IA, e isso inclui textos, estão fundidos com informações que foram criadas pelo ser humano, de tal forma que não sabemos como lidar com isso. A cada nova IA treinada em dados que já contêm saídas de outras IAs, cria-se um ciclo em que as informações estão distorcidas. Isso leva ao que chamam de "colapso de modelo": modelos futuros aprendem menos dos humanos, menos da realidade e mais de conteúdo artificial de qualidade inferior.

Um artigo da Futurism traz uma analogia bem interessante com o aço. Antes dos anos cinquenta, o aço produzido estava livre de contaminação por radiação. Com os testes nucleares que ocorreram a partir dessa época, a radiação emitida ficou no ar. Na fabricação do aço, usa-se o ar atmosférico, o que significa dizer que o aço produzido depois dos anos cinquenta possui traços de isótopos radioativos, como o cobalto-60. Ou seja, não é um aço de boa qualidade e, por isso, não pode ser usado em equipamentos científicos ultrasensíveis. Assim, utiliza-se aço produzido antes da energia nuclear, como aquele encontrado em navios afundados ou em estruturas antigas.

A analogia ocorre com os dados usados pela IA. Os dados antes do GPT, ou seja, antes de 2022, são dados de alta qualidade. Tudo que foi produzido após 2022 pode estar contaminado, sendo dados de baixa qualidade.

16 junho 2025

Sinalização, mercado de trabalho e IA

 

Os dados dos Estados Unidos mostram que a contabilidade possui uma taxa de desemprego reduzida em relação a campos "novos" como engenharia da computação ou estudos ambientais. A taxa de subemprego também é baixa, quando comparamos com antropologia (mais de 50%) ou comunicação (idem). (Fonte: newsletter da Bloomberg)

Mas sabemos que a Inteligência Artificial ainda não está refletida nos dados de emprego e tudo pode mudar nos próximos anos. Ou não, já que há controvérsias sobre a capacidade dos modelos em fazer tarefas mais complexas. Eis um trecho:

Um novo artigo de pesquisadores da Apple jogou um balde de água fria no hype da inteligência artificial. “O estudo argumenta que os modelos de raciocínio avançado — celebrados por alguns como uma nova fronteira da forma como a IA ‘pensa’ — estão muito aquém das expectativas. Quando um problema se torna suficientemente complexo... os modelos sofrem um ‘colapso total de precisão’”, relata Dave Lee. 

E ontem, lendo O Incentivo Certo, de Uri Gneezy, encontrei isso:

Por que investir em um bom ensino é um sinal convincente? Porque é algo difícil de realizar. É necessário investir tempo, esforço e dedicação nesse objetivo de longo prazo. Esse investimento em instrução é menos custos para o candidato do tipo bom do que para o tipo ruim porque, por definição, o tipo bom é mais inteligente e está mais disposto a trabalhar duro. A instrução é menos desgastante e mais recompensadora para ele do que para o tipo ruim, que, provavelmente, a considera muito difícil ou demorada.  

12 junho 2025

Hollywood contra Midjourney: criação de imagem por IA pode levar a uma grande processo


Algumas empresas de mídia tradicional, entre elas a Disney, entraram com processo contra a empresa de inteligência artificial Midjourney, por violação de direitos autorais. A Midjourney estaria usando obras protegidas, como personagens de Star Wars e Shrek, para gerar imagens que seria criações de forma fiel, sem autorização.  

No processo há um grande número de imagens originais e as geradas pela IA como prova da acusação.  Além de solicitarem a proibição de geração de imagens, as empresas acusadoras querem compensações financeiras. 

Esse é o primeiro grande processo de Hollywood contra a geração de imagens de IA e pode estabelecer precedentes sobre o uso das ferramentas.  

Wikipedia recua no uso de IA


Recentemente, a Wikipédia fez um experimento em que mostrava para seus usuários um resumo, gerado por uma Inteligência Artificial, no topo dos artigos. O resultado foi uma reação muito negativa da comunidade de editores da enciclopédia.

Em um mundo em que a qualidade da IA é muitas vezes questionável, a Wikipédia seria uma fonte confiável de informação, produzida por humanos. Além de um possível problema reputacional, a enciclopédia deve lidar com uma eventual insatisfação de seus editores e produtores de texto. Sendo um conteúdo colaborativo, que funcionou perfeitamente bem até o presente momento, ter a interferência da IA, por menor que seja, pode não ser adequado.

A Wikipédia é ainda hoje um local onde a desinformação e o desleixo gerados pela Inteligência Artificial estão distantes. E isso graças à comunidade de editores e à infinidade de colaboradores.

Produzido a partir daqui 

30 maio 2025

Revisão automatizada faz sentido

Da newsletter da Zeppelini Publishers:


Frequentemente descrita como a “espinha dorsal” da ciência moderna, a revisão por pares tem como objetivo validar os achados científicos antes de sua publicação. No entanto, o crescimento exponencial da produção científica nas últimas décadas colocou esse modelo sob forte pressão. (...)

Diante desse cenário, ganha força o debate sobre o uso da inteligência artificial como alternativa para acelerar e qualificar o processo de revisão por pares. Mas até que ponto essa automação é possível, ética e eficaz? Qual é o potencial transformador da IA na revisão científica?

A promessa mais imediata da IA é a redução drástica do tempo necessário para triagens e revisões técnicas. Sistemas como o eLife’s SIFT, por exemplo, utilizam IA para verificar conformidade com critérios editoriais, destacando inconsistências e lacunas. Com isso, realizam uma pré-avaliação em menos de dez minutos, um processo que levaria horas para um editor humano.

Outro caso relevante é o da Frontiers Media, que utiliza algoritmos para detectar duplicações, erros estatísticos, citações inadequadas e conflitos de interesse. Em 2021, a empresa reportou que essa abordagem reduziu em até 40% o tempo médio entre submissão e publicação.

Ferramentas antiplágio como Turnitin, iThenticate já são amplamente utilizadas para identificar similaridades textuais, paráfrases indevidas e possíveis plágios. Além disso, sistemas como o StatReviewer avaliam automaticamente a correção de métodos estatísticos usados, apontando erros comuns em testes de hipóteses, regressões e amostragens.

A IA também pode contribuir para identificar fabricação de dados, uma prática difícil de detectar manualmente. O algoritmo ImageTwin, por exemplo, foi desenvolvido para identificar reutilização de imagens em artigos científicos, como figuras de microscopia ou Western blots, aumentando a confiabilidade de pesquisas visuais. (...)

Sistemas de IA são tão imparciais quanto os dados que os alimentam. Se os datasets usados para treinar algoritmos privilegiam publicações em inglês, de revistas ocidentais e de autores consagrados, há risco de perpetuar desigualdades regionais, linguísticas e institucionais. Uma pesquisa da Nature (2022) apontou que algoritmos de ranqueamento automático favoreceram 20% mais artigos de autores dos Estados Unidos e da Europa Ocidental em relação a autores de países em desenvolvimento.

Apesar dos avanços de modelos como o GPT-4 e o Claude, a IA ainda não compreende significado da mesma forma que humanos. Ela pode identificar erros formais, mas não avaliar originalidade, relevância teórica ou impacto social de uma pesquisa. Isso é especialmente crítico em ciências humanas, onde a subjetividade e o contexto são essenciais.

Decisões tomadas por IA devem ser explicáveis e auditáveis. No entanto, muitos sistemas operam como “caixas-pretas”, com critérios complexos e pouco transparentes. Isso levanta as seguintes perguntas: se um algoritmo rejeita um artigo com base em critérios automatizados, quem responde pelo erro? Como o autor pode apelar ou questionar essa decisão?

A ausência de regulamentação clara agrava o problema. Atualmente, não há consenso internacional sobre o papel permitido da IA na avaliação científica, embora iniciativas estejam surgindo, como as diretrizes do Committee on Publication Ethics (COPE). (...)

Dado o cenário, é prudente defender uma automação parcial e supervisionada da revisão por pares, focada nas tarefas mais repetitivas e suscetíveis a erros humanos. Isso inclui triagem técnica inicial (estrutura, metadados, formatos, referências); verificação estatística e de plágio; sugestão de revisores com base em aprendizado de máquina; e resumo automático do conteúdo para editores humanos.

Com isso, os revisores humanos podem se concentrar na análise crítica, teórica e ética do artigo, garantindo um equilíbrio entre agilidade e qualidade. Essa abordagem colaborativa já está sendo adotada em revistas como a PLOS One e IEEE Access, com resultados promissores. (...)

O futuro da revisão por pares deve ser tecnologicamente assistido, mas essencialmente humano. Inteligência artificial pode ser nossa aliada, desde que guiada por inteligência ética e científica. Afinal, a ciência não avança apenas com precisão: ela precisa também de discernimento. 

Parece que é inevitável a IA no processo e as questões levantadas são pertinentes. Imagem aqui