Hoje em dia, ao realizar uma busca por "Israel Kamakawiwoʻole" no Google, os resultados não exibem as tradicionais capas de álbuns do renomado cantor ou fotos dele apresentando suas músicas com seu icônico ukulele.
Surpreendentemente, a imagem inicial mostra um homem sorridente na praia, mas não se trata de uma foto autêntica tirada por uma câmera. Trata-se de uma imagem falsa gerada por inteligência artificial (IA), encontrada inicialmente no subreddit Midjourney, como postado por Ethan Mollick, professor da Wharton, em seu perfil no X (antigo Twitter).
Ao observar de perto, é evidente a presença de traços característicos da intervenção da IA na imagem. O efeito irregular de profundidade de campo, a distorção na textura da camisa e a ausência de um dedo na mão esquerda são características reveladoras. Mesmo com os avanços nas imagens geradas por IA, ainda é possível identificá-las facilmente ao examiná-las com atenção.
O problema real reside no fato de que essas imagens estão sendo apresentadas como o resultado principal para uma figura famosa, sem qualquer marca d'água ou indicação clara de que são criações de IA.
Embora o Google nunca tenha assegurado a autenticidade dos resultados de sua pesquisa de imagens, essa situação levanta preocupações significativas.
Existem explicações possíveis para esse caso do cantor havaiano. Ele faleceu em 1997, e o algoritmo do Google tende a priorizar informações mais recentes. Dado o escasso volume de novos artigos ou discussões sobre ele, é compreensível que o algoritmo tenha identificado a imagem gerada por IA. Contudo, isso poderia ter implicações mais sérias em outros casos.
Mesmo que esses eventos não se tornem frequentes nos resultados de pesquisa, isso destaca a necessidade de regras mais claras por parte do Google. Marcadores evidentes ou filtros automáticos para imagens geradas por IA podem ser meios eficazes de enfrentar esse desafio.
No entanto, considerando o interesse do Google no conteúdo gerado por IA, surgem preocupações sobre a possibilidade de inserir discretamente esse tipo de conteúdo nos resultados de pesquisa sem uma marcação clara.
VEJA MAIS: