Jogo da verdade
A jornalista Giovana Madalosso anunciou que faria uma coluna escrita por robô (para quem tem acesso: https://www1.folha.uol.com.br/colunas/giovana-maladosso/2025/04/pedi-para-ia-escrever-esta-coluna.shtml). Seria um crime? Ela desconversa e revela que não o fez para não ser demitida do jornal, que deve pagar por colunas originais e não plasmadas no nebuloso mundo cibernético, mas a articulista incorporou alguns trechos da resposta da inteligência artificial que foi indagada a elaborar um texto nos moldes que a própria articulista escreveria. Ou seja, ela fez o teste e não gostou muito. Crime menor, sem cores. Melhor ainda: ela publicou alguns trechos que lembram seu estilo, com a ressalva de que não havia gostado e os usou como exercício de entendimento sobre o que é essa ferramenta tão falada e afamada. Tudo registrado em aspas, tal qual a fala de uma fonte anônima escondida em algum órgão suspeito de falcatruas ou do infiltrado em manifestações criminosas pelas avenidas. O resultado do exercício da jornalista pode até dar um trava-língua: o robô em arroubos rebuscados roubou bocados buscados e ficamos bobos com o resultado.
Bem menos conhecido do que Giovana, fiz exercício semelhante com o ChatGPT e ele não encontrou ninguém com meu nome para usar como referência na elaboração de um texto "novo". Ou seja, meus dois mil artigos publicados por aí ainda não são suficientes para alimentar a ferramenta ou simplesmente o robozinho os ignorou, diferente da centena de leitores semanais e assíduos deste blog. A ferramenta afastou-me do crime do plágio - ou autoplágio, caso ele usasse minhas próprias palavras e estilo para elaborar algo inédito. Na ciência, é comum usarmos conceitos estabelecidos por outros pesquisadores para justificar ou explicar o que estamos estudando, sempre com a devida citação da fonte, com nome dos autores e onde tal conceito fora publicado. Acabamos por ter menos cuidado em citações literais, ou seja, lemos o que foi publicado e reescrevemos a ideia. Isso nas chamadas ciências da natureza, pois nas Humanidades o texto original é muito mais importante, uma vez que a própria escolha das palavras para elaborar um conceito é uma ciência em si. De qualquer forma, crimes de plágio podem ser considerados menores frente à usurpação de ideias com fins políticos, eleitorais, comerciais e outros. Crimes são crimes, não há dúvidas, e não se pode defendê-los pelo uso da mentira, qualquer que seja a fonte.
Verdades e mentiras parecem habitar os mesmos espaços e, se vacilarmos, ficamos em dúvida para diferenciá-las. A que seria cristalina à luz do sol é ocultada pelos que a rotulam de simples narrativas. A que tem pernas curtas consegue caminhar até a avenida e subir em palanques, vejam só! Descubro, assim, que conheço um criminoso. Ele vai a evento que apoia criminosos com a presença de vários criminosos. Também quando criança convivi com um futuro criminoso. O rapaz de nome estranho, fruto de anagrama do nome do pai, virou Japa na curta idade adulta e criminosa. De origem oriental ele nada tinha. De minha memória - e, portanto, de minha verdade -, ele era um menino que devia possuir algum transtorno por andar falando e gesticulando sozinho, fuga do padrão neurotípico, não diagnosticado. Vivíamos no tempo em que todos fingiam ser normais. Virou criminoso de alto calibre, com mortes no currículo. Foi morto em emboscada policial tempos depois. A família - parte dela ainda mora na mesma rua de minha infância - assumiu o silêncio como resposta às indagações de todos. Como aquele menino virou um assassino? Creio que normalizamos comportamentos e situações com fortes consequências posteriores, tal qual fazem os coloridos criminosos na avenida hoje em dia.
Falhas óbvias dos grandes sistemas generativos não são graves, para quem tem conhecimento e percebe os erros (garanto que é uma parcela pequena da nossa população em geral inculta). O grande perigo está no fato de que é impossível saber como esses sistemas chegam a alguma resposta, pois usam trusilhões de parâmetros que foram calculators ("aprendidos" está totalmente errado, só animais e seres humanos aprendem, e não se sabe como). -- sgundo notícias, o ChatGPT usa 1,5 trilhão (!!!) de parâmetros. É IMPOSSÌVEL examiná-los. O perigo está em usar esses resultados para substituir DECISÕES humanas, que muitas vezes não são formais ou formalizáveis, por exemplo quando usam compaixão e empatia. Computadores não decidem, eles fazer ESCOLHAS LÓGICAS. Nenhum resultado de uma computador que influencia pessoas ou a natureza deveria ser aplicado sem que fosse escrutinado por uma pessoa especialista no assunto (por exemplo, em diagnóstico médico, por um médico). E aqui vem um outro problema gravíssimo: os seres humanos erram demais -- segundo o Observatório Nacional de Segurança Viária, 90% dos acidentes de trânsito são devidos a falhas humanas. Acho que anteontem 2 moças foram atropeladas numa faixa de pedestres aqui em São Paulo e morreram, pois o motorista estava em alta velocidade (já tinha muitas multas por causa disso). Se os veículos autônomos diminuírem bem a taxa de acidentes, deverão ser usados.
ResponderExcluirwww.ime.usp.br/~vwsetzer
Tema muito atual!
ResponderExcluir