Google com conteúdo de baixo efeito que parece bom

Google com conteúdo de baixo efeito que parece bom


John Mueller, do Google, usou uma imagem gerada pela IA para ilustrar seu argumento sobre o conteúdo de baixo efeito que parece bom, mas carece de verdadeira experiência. Seus comentários recuaram contra a idéia de que o conteúdo de baixo efeito é aceitável apenas porque tem a aparência de competência.

Um sinal que o derrubou para artigos de baixa qualidade foi o uso de imagens em destaque geradas por IA. Ele não sugeriu que as imagens geradas pela IA sejam um sinal direto de baixa qualidade. Em vez disso, ele descreveu sua própria percepção “você sabe disso quando vê”.

Comparação com a experiência real

O comentário de Mueller citou as práticas de conteúdo de especialistas reais.

Ele escreveu:

“Quão comum é em círculos que não são de Seo que os artigos“ técnicos ” /“ especialistas ”usam imagens geradas pela IA? Eu amo totalmente vê -los

.

Porque eu sei que posso ignorar o artigo que eles ignoraram enquanto escrevem. E, por que não deve bloqueá -los no social também. ”

Baixo teor de esforço

Em seguida, Mueller chamou um trabalho de baixo efeito que resulta em conteúdo que “parece bom”.

Ele seguiu com:

“Eu luto com os comentários“ Mas nosso trabalho de baixo efeito parece bom ”. Realisticamente, barato e rápido reinará quando se trata de produção de conteúdo em massa, então nada disso vai desaparecer tão cedo, provavelmente nunca. “Deformamento baixo, mas bom” ainda é baixo e baixo. “

Isso não é sobre imagens de IA

A postagem de Mueller não é sobre imagens de IA; É sobre conteúdo de baixo efeito que “parece bom”, mas realmente não é. Aqui está uma anedota para ilustrar o que quero dizer. Eu vi um SEO no Facebook se gabando de quão grande era seu conteúdo gerado pela IA. Então, perguntei se eles confiaram nisso para gerar conteúdo local de SEO. Eles responderam: “Não, não, não, não” e observaram o quão pobre e não confiável o conteúdo desse tópico era.

Eles não justificaram por que confiaram no outro conteúdo gerado pela IA. Eu apenas assumi que eles não fizeram a conexão ou tiveram o conteúdo verificado por um especialista em assuntos reais e não o mencionou. Eu deixei lá. Sem julgamento.

O padrão deve ser levantado?

O ChatGPT tem um aviso de isenção de responsabilidade contra confiar nele. Portanto, se a IA não pode ser confiável para um tópico em que se conhece e aconselha a própria cautela, o padrão para julgar a qualidade do conteúdo gerado pela IA deve ser maior do que simplesmente parecer bom?

Captura de tela: ai não atestará sua confiabilidade – deveria?

Captura de tela da interface ChatGPT com o seguinte aviso abaixo da caixa de bate -papo: o chatgpt pode cometer erros. Verifique informações importantes.

ChatGPT recomenda verificar a saída

O ponto, porém, é que talvez seja difícil para um não especialista discernir a diferença entre conteúdo especializado e conteúdo projetado para se parecer com a experiência. O conteúdo gerado pela IA é especialista no aparecimento de especialização, por design. Dado que mesmo o ChatGPT recomenda verificar o que gera, talvez seja útil fazer com que um especialista real revise esse conteúdo assumido antes de lançá-lo no mundo.

Leia os comentários de Mueller aqui:

Eu luto com os comentários “mas nosso trabalho de baixo efeito realmente parece bom”.Imagem em destaque de Shutterstock/ShotPrime Studio



Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *