Jornalismo Computacional na Faculdade Cásper Líbero – Parte 2

  • Por Érica Azzellini

No dia 08/04, foi a vez da aula prática sobre Jornalismo Computacional na Faculdade Cásper Líbero para alunos da matéria de Jornalismo Multimídia, ministrada pelo professor João Alexandre Peschanski. Em nosso primeiro encontro, tratei de aspectos teóricos de web semântica e potencialidades para jornalistas com as narrativas estruturadas, expondo o desenvolvimento do projeto com a ferramenta Mbabel que desenvolvo no CEPID NeuroMat.

Como tarefa de casa, sugeri que os alunos criassem itens sobre políticos no Wikidata, para que entendessem a lógica do banco de dados semântico.

Nos reunimos no laboratório de informática da Faculdade Cásper Líbero para utilizarmos a ferramenta Mbabel e criar verbetes para eleições municipais de 2016 automaticamente. Para a maioria dos alunos, foi o primeiro contato ativo na Wikipédia. Éder Porto, membro da equipe NeuroMat, facilitou a tarefa organizando a lista de verbetes a serem criados pelos alunos na atividade.

A proposta era que os alunos criassem o rascunho dos verbetes com a ferramenta Mbabel, a fim de compreender o funcionamento da comunicação computacional, e em seguida adicionassem seções nos verbetes voltadas para o contexto e análise da eleição – temáticas que dependem da percepção humana para serem redigidos. A prática foi bastante produtiva, de forma que ampliamos a quantidade e melhoramos a qualidade da informação sobre eleições municipais na Wikipédia em uma única manhã com o esforço coletivo de alunos de jornalismo.

As instruções para as atividades realizadas podem ser acessadas na Wikiversidade.

Anúncios

Jornalismo Computacional na Faculdade Cásper Líbero – Parte 1

  • Por Érica Azzellini

Por conta de minha pesquisa no CEPID NeuroMat, fui convidada a dar duas aulas para os alunos de Jornalismo da Faculdade Cásper Líbero na matéria de Jornalismo Multimídia, ministrada pelo professor João Alexandre Peschanski.

A aula de 01/04 foi dedicada ao aspecto teórico do Jornalismo Computacional (JC). A ideia era que os alunos compreendessem as possíveis definições de Jornalismo Computacional e aprendessem noções de práticas na web semântica a partir de experimentações com o Wikidata.

Para isso, foi dado o contexto no qual surge a ideia de Jornalismo Computacional; possíveis definições de JC propostas por acadêmicos; como JC se diferencia de outros jornalismos digitais; as potencialidades de narrativas estruturadas dentro do JC – especialmente no que diz respeito a softwares NLG. Os exemplos práticos ficaram a cargo da ferramenta Mbabel. Com isso, introduzi os alunos ao universo Wikimedia e às integrações possíveis do Wikidata, banco de dados semântico, com a Wikipédia em um contexto de comunicação computacional.

O ppt da apresentação está disponível aqui.

Os alunos também responderam um questionário sobre data literacy que deverá ser utilizado para elaboração de um trabalho acadêmico posterior sobre Wikidata e educação.

Jornalismo Computacional e narrativas estruturadas na Revista Texto Livre

  • Por Érica Azzellini

O artigo As potencialidades de narrativas estruturadas para o Jornalismo Computacional: Competências jornalísticas na elaboração de textos gerados com banco de dados foi publicado na Revista Texto Livre. A revista é uma publicação da Faculdade de Letras da Universidade Federal de Minas Gerais, dedicada a discussões e reflexões em torno de temáticas das Humanidades Digitais.  O texto publicado é fruto da pesquisa realizada no contexto de bolsa do programa Mídia Ciência da FAPESP no CEPID NeuroMat.

Resumo: 

Neste artigo, explora-se as competências digitais desenvolvidas por jornalistas no contexto informacional do Big Data que levantam a viabilidade de intersecção entre Ciências da Computação e Jornalismo. Nesse sentido, autores propõem diferentes entendimentos sobre o Jornalismo Computacional, campo hipotético no qual a prática jornalística agrega um direcionamento técnico, o que expande o horizonte de entendimento da relação do jornalista com a construção narrativa no ambiente de abundância de dados. Observa-se nesse cenário a emergência de experimentações com narrativas estruturadas, entendidas como textos verbais automatizados a partir de moldes pré-determinados que processam dados de bancos de dados estruturados. Com isso, o artigo reflete sobre os softwares de Natural Language Generation (NLG) na composição de notícias e apresenta resultados do desenvolvimento da ferramenta Mbabel para geração de rascunhos estruturados para verbetes temáticos na Wikipédia a partir do banco de dados Wikidata.

O artigo completo está disponível aqui.

Mbabel: Narrativas estruturadas

  • Por Érica Azzellini

Os templates utilizados na ferramenta Mbabel para geração de rascunhos de verbetes temáticos foram desenvolvidos de acordo com o conceito de narrativas estruturadas, que podem ser entendidas como a criação de textos verbais, compreensíveis por humanos, automatizados a partir de arranjos pré-determinados que processam informações de bancos de dados estruturados. Os templates são utilizados para geração de rascunhos de verbetes temáticos, sendo esqueletos de textos verbais formados com dados estruturados extraídos automaticamente do Wikidata.

A composição textual é pré-determinadagenérica e editável. Isso quer dizer que o editor irá visualizar um texto de esboço que pode se adequar a diferentes verbetes dentro do tema escolhido. Como os dados inseridos na estrutura textual são extraídos do item Wikidata correspondente, os rascunhos deverão variar de acordo com as informações disponíveis no banco de dados sobre o item desejado.

Os verbetes de filmes, por exemplo, seguem uma estrutura narrativa semelhante, uma vez que seus artigos precisam conter informações essenciais como título do filme, quando e onde foi lançado, por quem foi dirigido e produzido e quais atores fizeram parte do elenco, por exemplo. Essas informações são entendidas como variáveis que podem ser aplicadas em uma estrutura textual genérica, facilitando a elaboração de um rascunho que se adapta de acordo com o filme desejado.

Para cada tema foi desenvolvida uma estrutura básica de verbete que pode ser seguida pelo editor. Todos os rascunhos contêm introdução e seções vinculadas à temática como sugestões, a fim de auxiliar o editor no processo de elaboração do verbete. O editor pode alterar o texto gerado em sua página pessoal de testes conforme julgar necessário, devendo aprofundar a qualidade do verbete antes de publicá-lo no domínio principal. Também é responsabilidade do editor atentar-se para as recomendações do livro de estilo da Wikipédia.

Vale pontuar que as frases e sentenças geradas automaticamente pelo Mbabel são simplescurtas e, muitas vezes, fazem uso da voz passiva. Tal recurso foi adotado a fim de abranger particularidades da Língua Portuguesa, de forma a serem o mais adaptáveis possível às variáveis linguísticas decorrentes das propriedades cadastradas no Wikidata. Portanto, cabe ao usuário adequar o texto do rascunho estruturado aos moldes da linguagem natural, de forma que não cause estranhamento ao leitor humano. O material disponível na página do evento Wikidata Lab IX pode ser consultado para melhor entendimento da estruturação narrativa na ferramenta

Potenciais para o Jornalismo Computacional na Estruturação de Narrativas de Difusão Científica Baseadas em Wikidata: o novo projeto do NeuroMat

 

Wikidata Lab VIII (23).jpg
A bolsista Érica e outros participantes do Wikidata Lab VIII, ministrado por Andrew Lih e Magnus Manske. (Crédito: Wikimedia Commons/Rodrigo.Argenton – Own work, CC BY-SA 4.0)

Olá!

Eu sou Érica Azzellini, a nova integrante da equipe de difusão científica do NeuroMat com a bolsa do Programa José Reis de Incentivo ao Jornalismo Científico (Mídia Ciência), da FAPESP. Eu me formei ano passado em Jornalismo pela Faculdade Cásper Líbero e, ao longo da graduação, desenvolvi um grande interesse pela área acadêmica em Comunicação, especialmente pelos estudos relacionados a novas tecnologias. Continue Lendo “Potenciais para o Jornalismo Computacional na Estruturação de Narrativas de Difusão Científica Baseadas em Wikidata: o novo projeto do NeuroMat”