Desde que as ferramentas de IA generativa se popularizaram e se tornaram tendência em diversas redações pelo mundo, guias e pesquisas sobre o uso dessa tecnologia vêm sendo publicados. Parte dessas publicações tenta atender uma nova demanda que surgiu nesse contexto, a necessidade de materiais que sejam transparentes sobre utilização de IA, para garantir a ética e confiabilidade da informação.
Caminhando nessa direção, o Aos Fatos, organização associada à Ajor, completou 9 anos em julho deste ano e comemorou com um novo design de seu site e com a publicação de sua política de inteligência artificial.
Em entrevista à Ajor, a fundadora e diretora-executiva dos Aos Fatos, Tai Nalon, detalha que disponibilizar essa diretriz do uso de IA para o público faz parte do compromisso de manter transparência radical da organização, com objetivo de explicar aos leitores como o jornalismo é feito e como os projetos são desenvolvidos, sobretudo diante do pioneirismo do uso de tecnologia pelo veículo.
Ajor: O Aos Fatos sempre trabalhou com produtos de tecnologia com certo pioneirismo, qual a importância de publicar uma diretriz sobre IA neste momento? Por que ter políticas de uso de IA nas redações?
Tai Nalon: A tecnologia é um elemento indissociável do jornalismo que o Aos Fatos faz, e ter uma política de IA é um passo natural. Aos Fatos adota uma política de transparência radical, de modo que faz parte da missão da empresa prestar contas à audiência sobre como o nosso jornalismo é feito e como os nossos projetos de inovação são desenvolvidos. Explicar como incorporamos IA à nossa rotina nos parece tão importante quanto ter uma política editorial e obedecê-la escrupulosamente.
O jornalismo do século passado acostumou-se a não prestar contas ao seu público. Essa prerrogativa não existe mais. A audiência do Aos Fatos quer saber como a organização se financia, como seu jornalismo é feito e, obviamente, dentro desse contexto, como aplica tecnologias à sua rotina produtiva. Até porque, para a audiência criar familiaridade com novas tecnologias e não vê-las somente como ameaças, precisa entender que é possível desenvolver um uso ético delas, com limites bem demarcados e avaliação de risco permanente.
Ajor: O Núcleo foi o primeiro veículo brasileiro a publicar uma política do tipo, em maio de 2023, há mais de um ano. Como você avalia as diferenças de contexto, inclusive de discussão política, entre maio do ano passado e o momento atual?
Tai Nalon: O Aos Fatos tem 100 mil usuários entre seus produtos baseados em IA – Fátima, Radar e Escriba. Também desenvolve projetos novos, alguns deles para serem lançados em breve. Isso significa que precisamos pensar uma política que seja feita sob medida para os produtos que já existem, assim como para os projetos que ainda serão desenvolvidos, sem constranger o potencial de inovação da organização. Estudar o comportamento dos usuários de cada um desses produtos não é trivial, assim como entender as possibilidades que uma tecnologia tão nova pode oferecer.
Para assumir um compromisso de uso ético de uma tecnologia é preciso entender quais são suas limitações – e isso só se faz, primeiramente, criando processos internos que garantam o cumprimento da política de IA antes de torná-la pública. Exemplo disso são os testes de risco a que nossos produtos são submetidos. A aplicação de IA generativa na Fátima, robô checadora do Aos Fatos, é um exemplo claro disso. Empregar uma metodologia que diminua riscos garantiu o funcionamento do chatbot com uma taxa de erro menor que 1%.
Ajor: Dentro da operação do Aos Fatos, existe uma pessoa ou um setor responsável pela fiscalização do uso da IA? Como é feito?
Tai Nalon: O corpo de diretores da organização certifica-se de que todas as políticas do Aos Fatos, seja de IA, seja editorial, seja de privacidade, sejam respeitadas. Todas essas políticas coexistem, são complementares e fundamentais para a segurança institucional do Aos Fatos, de suas fontes e de seus clientes.
Ajor: Além de uma política aberta sobre o uso de IA, existem outras medidas que os veículos de comunicação podem tomar para deixar mais transparente ao público a aplicação de tecnologias na produção de conteúdo?
Tai Nalon: Aplicar tecnologia é algo muito amplo. De qualquer forma, no caso da IA, sinalizar em quais etapas do processo de produção de uma história, de um projeto, de um produto essa tecnologia é usada me parece um bom ponto de partida. Ter conhecimento sobre a própria audiência e entender quão familiarizada ela está com determinadas tecnologias também é essencial, para não causar estranhamento ou quebra de confiança.
Ajor: A política do Aos Fatos deixa muito claro o uso de IA na apuração e produção, vocês já usam ou pretendem utilizar na distribuição de conteúdos? Se sim, há um procedimento para isso?
Tai Nalon: Sim, Aos Fatos usa IA na distribuição de conteúdos há muito tempo, por meio do chatbot Fátima. A atual versão para WhatsApp, Telegram e no nosso site está em fase beta e usa IA generativa baseada no modelo GPT-4. Isso garante respostas mais precisas para as dúvidas mais comuns que nossos leitores têm ao engajar com o chatbot nessas plataformas.
O modelo usado pela Fátima responde ao prompt do usuário com um resumo de um, dois parágrafos com informações baseadas única e exclusivamente em reportagens e checagens do Aos Fatos. Um framework chamado RAG (Retrieval-Augmented Generation) conecta o modelo de linguagem usado na Fátima com uma base de dados particular – no caso, a base de dados do próprio Aos Fatos. O uso combinado desse método com testes de risco, limitações de tema e condicionantes diminui sensivelmente as chances de alucinação. Desde o lançamento da Fátima nessa versão com IA generativa, Aos Fatos tem documentado o feedback de usuários e não registrou respostas erradas. Caso o banco de dados do Aos Fatos não tenha a resposta para a pergunta do usuário, a Fátima simplesmente diz não ter uma resposta àquela dúvida.
Foto de destaque: Solen Feyissa/Unsplash.