Generative AI use and human agency
Conteudo
TLDR;
O uso de generative AI é opcional; você não precisa usá‑la e deve recorrer a ela só quando for a ferramenta adequada para a tarefa. Generative AI não é fonte de fatos, produz apenas previsões que frequentemente estão erradas e cujo conteúdo precisa ser verificado por você ou por meios distintos. A responsabilidade pelo que se produz com generative AI recai sobre os humanos e as organizações que a empregam, pois a própria IA não pode ser responsabilizada legalmente.
Resumo
Neste texto, Joanna Bryson defende que o uso de IA generativa é opcional e exige cautela: esses sistemas aprendem padrões e geram previsões, não fatos, cuja veracidade precisa ser verificada, pois frequentemente produzem erros coerentes que só especialistas conseguem identificar e corrigir rapidamente. A autora ressalta que IA não é agente moral ou legal — empresas e humanos são responsáveis pelas decisões — e que quem usa a ferramenta deve garantir a precisão do que for divulgado. Há contextos em que empregar IA generativa é imoral ou inadequado (por exemplo, decisões judiciais), e profissionais devem escolher a tecnologia certa para cada tarefa. Bryson alerta contra a dependência excessiva, que pode empobrecer a aprendizagem pessoal, gerar resultados medianos e tornar indivíduos e organizações vulneráveis quando a ferramenta não estiver disponível; além disso, corrigir saídas geradas pode levar mais tempo do que fazer a tarefa manualmente. Ela também destaca preocupações ambientais pelo alto consumo de energia e problemas de direitos autorais, defendendo compensação a titulares de IP e desenvolvimento de modelos mais leves. Em resumo, use IA com juízo, responsabilidade humana e verificação. Bryson também lembra que organizações devem estar preparadas para operar sem IA e escolher ferramentas adequadas às responsabilidades humanas essenciais.