Pattypan: como utilizar a ferramenta para carregamentos no Wikimedia Commons

Por Veronica Stocco

O Pattypan é um software de código aberto que permite o carregamento automatizado de arquivos ao Wikimedia Commons. Basta preencher uma planilha modelo, e o programa realiza todos os passos do processo – do upload, à conexão com o elemento Wikidata relacionado à mídia (se houver algum). Caso haja um QID relacionado à imagem, o Pattypan utilizará as informações disponíveis no Wikidata para preencher automaticamente a página de descrição da mídia no Commons.

Ao abrir o Pattypan, há uma opção para gerar uma planilha que deverá ser preenchida com as informações relevantes sobre as mídias que serão carregadas. O ideal é criar a planilha no diretório no qual as mídias que serão carregadas se encontram. Isso não é obrigatório, porém é um facilitador, já que o programa identifica por conta própria os arquivos válidos que se encontram naquele diretório, e incluirá o caminho para os mesmos na planilha.

Após isso, pode-se escolher o template desejado para o carregamento. Existem vários templates pré-definidos, como o Artwork, Photograph, entre outros. Cada um possui campos distintos, que podem ou não ser incluídos. Há também a opção de definir um valor fixo para aquele campo, extremamente útil quando todas as obras foram criadas pelo mesmo autor ou fotografadas pela mesma pessoa. 

Com isso em mãos, basta preencher as colunas da planilha criada. Caso as mídias a serem carregadas já possuam um QID, não se esqueça de incluí-lo. Desta forma, não será necessário preencher um grande número de colunas, pois as informações relevantes sobre o item serão retiradas do próprio Wikidata.

Depois disso, é hora de fazer a validação da planilha. Caso algo não esteja correto, o Pattypan mostrará um aviso. Quando tudo estiver pronto, basta prosseguir com o processo: fazer seu login no Commons, iniciar o carregamento e esperar que todas as imagens sejam adicionadas ao Commons.

ABRAÇO elaborará FAQ para seu site

Por Matheus Cornely Sayão

Na quarta-feira (27) será dado início à elaboração de uma FAQ (frequently asked questions) para compor a plataforma da iniciativa ABRAÇO. O objetivo desse material será a orientação de pessoas com lesão do plexo braquial, especificamente as recentemente lesionadas, em suas dúvidas mais comuns, versando sobre aspectos da cirurgia, tratamento, amparo e outras tantas demandas que poderão aparecer durante o processo.

Além disso, o conteúdo tem outro objetivo: operar uma desambiguação em relação às demandas que nossa iniciativa é capaz de dar conta, uma vez que os aumentos na visibilidade da ABRAÇO são geralmente acompanhados de uma explosão de pedidos de ajuda que escapam do nosso escopo.

Não é incomum que as demandas que chegam até nós através dos e-mails contenham pedidos que não sabemos ou que não podemos responder. Esses pedidos às vezes trazem questionamentos que apenas uma consulta médica pode sanar, entendendo a ABRAÇO como uma entidade médica que realiza cirurgias e que elabora diagnósticos.
A ausência de formalização na interação entre iniciativa e paciente, apesar de não se mostrar prejudicial em um primeiro momento, pode ser danosa para a nossa imagem ao aparentar despreocupação. Nesse sentido, esperamos que a elaboração de uma FAQ possa ser o primeiro passo elementar na elaboração de protocolos de resposta para as mensagens que recebemos nas redes sociais e nos nossos e-mails.

Será disponibilizado nos vários grupos virtuais sobre a lesão do plexo braquial um formulário sobre as dúvidas. A ideia é que possamos construir esse conteúdo contando com o auxílio daqueles que, de fato, possuem dúvidas. Através do formulário, esperamos ter um certo grau de objetividade em relação à o que é ou não relevante para quem sofre com a lesão do plexo braquial.

Utilizaremos, também, as raspagens de dado dos grupos públicos sobre lesão do plexo braquial. Junto com os formulários, essas raspagens contribuem para uma delimitação mais objetiva das perguntas que iremos responder. No meu projeto científico, utilizo as raspagens de dados para pensar melhor a respeito dos conteúdos jornalísticos produzidos, endereçando problemas pelo grau de aparição em comentários e publicações feitos pelos pacientes. Pretendo, agora, reaproveitar a raspagem de dados e somá-la aos formulários.

Encontros no NeuroMat: Osame Kinouchi compartilha sua pesquisa sobre atividades neuronais espontâneas

 

*Por Thais May Carvalho

No último dia 12 de junho, o professor Osame Kinouchi Filho veio da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto até a sede do CEPID NeuroMat, no campus da USP em São Paulo, para nos contar sobre a sua mais recente pesquisa: Self-organized critical balanced networks: a unified framework. Esse artigo foi feito em colaboração com os pesquisadores Mauricio Girardi-Schappo, Ludmila Brochini, Ariadne Costa e Tawan Carvalho.

Doutor em física e professor da USP de Ribeirão Preto, Osame está associado ao NeuroMat desde 2015, quando Antonio Carlos Roque da Silva Filho, um dos investigadores associados do núcleo, o convidou para integrar a equipe. Naquela época, Kinouchi já trabalhava com os neurônios estocásticos (também conhecidos como neurônios probabilistas), um modelo desenvolvido pelos professores Antonio Galves e Eva Löcherbach, dois dos principais pesquisadores do NeuroMat.

Porém, Osame e a sua equipe têm uma abordagem voltada mais para a área da física estatística, enquanto as pessoas da sede em São Paulo se concentram na parte mais rigorosa dos teoremas e da matemática.

O artigo mais recente de Kinouchi, publicado em junho de 2019 e tema da sua última palestra no NeuroMat, fala sobre a atividade neural espontânea, ou seja, quando os neurônios estão ativos mesmo sem receber estímulos externos. Osame explica que algumas dessas atividades espontâneas da rede são responsáveis por determinadas patologias, dando como exemplo a epilepsia.

Nessa pesquisa, criando simulações com neurônios simplificados, foi possível notar que num determinado ponto dentro do Modelo de Brunel (mais especificamente no ponto-balanceado) existem avalanches neuronais, que é um tipo de atividade que segue a mesma lei de terremotos de Gutenberg-Richter.

Para Osame, isso significa que dois grupos que não se comunicam entre si, que são a comunidade de redes balanceadas (grupo de cientistas que segue o Modelo de Brunel e não pesquisa as avalanches neuronais) e a comunidade de redes críticas (grupo de cientistas que trabalha com a rede de avalanches), agora podem se unir em torno desse novo modelo, que mostra que ambos paradigmas, na verdade, se juntam em um só.

Inclusão de legendas no vídeo: “Fla-Flu no Cérebro”

Por Renan Costa Laiz

O vídeo “Fla-Flu no Cérebro”, produzido por Giulia Ebohon, foi baseado no artigo “Fla-Flu no Cérebro”, de autoria do pesquisador do CEPID Neuromat Antonio Galves, que foi publicado na revista Mente e Cérebro na edição de Janeiro de 2017.

Hospedado na plataforma Wikimedia Commons, o vídeo acaba de receber legendas tanto em português, quanto em inglês, que também foram feitas pela equipe de difusão científica do NeuroMat.

A inserção de legendas em inglês (que é considerado uma língua universal) se faz importante na medida em que aumenta o alcance do vídeo, que passa a ser acessível para todos os falantes do idioma. Mais do que incluir legendas em inglês, a inserção de legendas em português também se faz importante na medida que torna o vídeo acessível para pessoas com problemas auditivos, além de tornar o vídeo mais claro para todos aqueles que o assistem.

Mapa de neurocientistas brasileiros [Parte III]

Por Veronica Stocco

Quais universidades os neurocientistas brasileiros frequentaram? Ao longo das postagens anteriores, entendemos a estrutura que as perguntas que precisamos fazer ao banco de dados do Wikidata devem ter para responder a essa questão. Em bom português, são elas:

Quem são todas as pessoas (sujeitos) que têm:

  • cidadania brasileira?
  • profissão de neurocientista?
  • são formados por uma universidade [X]
  • A universidade [X] fica nas coordenadas [Y]

Lembrando que as perguntas com objeto entre colchetes são aquelas de resposta aberta, pois não queremos pré-estabelecer um valor que elas devam possuir. Ao invés disso, queremos saber como as pessoas que filtramos até aqui responderiam a essas perguntas. 

Com isso em mãos, podemos iniciar o processo de “tradução” para SPARQL. A primeira coisa que precisamos dizer para o banco de dados é quais os nomes que usaremos para nos referir às informações que queremos retirar dele:

Quero uma pessoa, uma universidade, uma coordenada, que se encaixa nesse padrão:

“Traduzindo” para SPARQL, temos:

SELECT ?pessoa ?universidade ?coordenadas WHERE:

Não fica tão diferente assim, não é mesmo? E agora chegamos à parte principal do nosso código. Lembra daquela questão das triplas de sujeito – predicado – objeto? É agora que ela vai quebrar um galho. Ela pode ser traduzida para SPARQL como:

?sujeito wdt:predicado wd:objeto

Vamos por partes. ?sujeito é o nome que definimos no início desta postagem. O predicado é a propriedade (valor numérico iniciado por P) no qual o objeto que queremos encontrar (QID) se encaixa. Tendo isso em mente, nosso primeiro parágrafo fica assim:

?pessoa wdt:P31  wd:Q5;

(instância de)  (ser humano)

wdt:P27  wd:Q155;

(país de cidadania)  (brasil)

     wdt:P106  wd:Q6337803;

(profissão)  (neurocientista)

wdt:P69  ?universidade.

(universidade frequentada)

Enquanto ainda temos perguntas a fazer sobre a pessoa, terminamos a linha com um ponto e vírgula. Após fazer a última, colocamos um ponto final. E a última pergunta ficou um pouco diferente, como não podia deixar de ser. Afinal, não queremos filtrar os resultados de uma faculdade específica. Queremos saber quais são as faculdades que esses cientistas frequentaram. É por isso que damos um nome a essa resposta. 

E agora é hora de fazer uma pergunta para as universidades que essas pessoas frequentaram. 

Da postagem anterior, tínhamos que:

A universidade [X] fica nas coordenadas [Y]

Traduzindo para SPARQL, teremos: 

?universidade wdt:P625 ?coordenadas.

}

Com apenas essas linhas, já conseguiríamos gerar o mapa que queremos! Entretanto, ao passar o mouse sobre cada ponto do mapa, não veríamos o nome da universidade que ele representa, ou do cientista que estudou ali. Ao invés disso, veríamos apenas o QID deles. Para mudar isso, o primeiro passo é especificar quais valores queremos “ajeitar”. Fazemos isso adicionando Label após seus nomes:

SELECT ?pessoaLabel ?pessoaDescription ?universidadeLabel ?coordenadas WHERE {

Os itens no Wikidata possuem nomes (labels) em várias línguas. Ao fim do código, vamos especificar que queremos receber os labels em português do Brasil ou inglês.

SERVICE wikibase:label { bd:serviceParam wikibase:language “pt-br, en”.

}

E pronto! Você pode testar query que estudamos neste link. É possível visualizar os resultados como uma tabela ou um mapa. O Wikidata Query Service oferece várias formas interessantes de visualizar os resultados. Há também um grande acervo de queries já prontas – e essa é uma excelente forma de começar a trabalhar com SPARQL. Não é preciso escrever algo do zero: basta procurar uma query que faça algo parecido com o que você quer fazer. Para criar o exercício estudado nesta série de posts, por exemplo, me baseei na query “Locations of national parks”.

Jornalismo Imersivo em Vídeos 360 Graus como Método de Divulgação dos Processos Científicos: o novo projeto do NeuroMat

Olá

Meu nome é Thais May Carvalho e sou formada em jornalismo pela Faculdade Cásper Líbero. Em junho, entrei para a equipe de difusão científica do CEPID NeuroMat com a bolsa do Programa José Reis de Incentivo ao Jornalismo Científico, da FAPESP.

Sob a supervisão do Dr. Fernando da Paixão e do João Alexandre Peschanski, que foi meu professor de Ciência Política no terceiro ano da faculdade, as minhas funções no NeuroMat são divididas em duas áreas: a prática e a teórica.

Para ajudar a divulgar o trabalho que está sendo feito aqui dentro, todos os meses será produzido um pequeno vídeo sobre as pesquisas realizadas no NeuroMat. Além disso, no final de novembro será divulgado um minidocumentário em 360 graus para mostrar como é o dia-a-dia dos pesquisadores da equipe que desenvolve o Cérebro Estatístico.

Já a parte teórica do meu trabalho será fazer um artigo para investigar como os vídeos em 360 graus funcionam como forma de divulgação científica. Essa nova ferramenta da comunicação ajuda a contar histórias sem a quarta fronteira, ou seja, diminuindo a distância entre o que é vivido pelos personagens e o espectador, criando assim uma maior imersão na narrativa. Como essa é uma área ainda muito nova no jornalismo (as primeiras produções em realidade virtual começaram no começo dessa década), ainda não há muita produção bibliográfica que aborde o uso do 360 jornalisticamente, em especial no jornalismo de divulgação científica.

Dessa forma, nós buscaremos explorar essa nova fronteira da comunicação, tentando aproximar o público, por meio dos vídeos em 360 graus, do trabalho que os cientistas fazem diariamente no NeuroMat.

Bibliotecas de Python para a raspagem de dados II

Por Veronica Stocco

Na postagem anterior, mencionamos algumas das ferramentas que podem ser utilizadas para coletar os dados de uma página na qual temos interesse. Tendo esses dados em mãos, podemos nos aproveitar de outras bibliotecas que auxiliem em seu tratamento. São os parsers: bibliotecas de análise sintática (parser) que não só facilitam a criação do código, mas também são muito eficientes.

  1. BeautifulSoup 

Precisa encontrar todas as imagens de uma página? O BeautifulSoup resolve seu problema em duas linhas. Não quer nada além dos comentários em uma postagem? É igualmente simples. É uma ferramenta fácil de se aprender, e legível. Uma de suas grandes forças é seu suporte para detectar a codificação de uma página, mesmo que ela não seja declarada corretamente em seu HTML. Em outras palavras, não haverá o risco de que uma palavra como “exceção” seja raspada como “exceção”, ou que outros tipos de caracteres especiais se percam no processo. 

  1. lxml

Embora a sintaxe do lxml não seja sempre tão simples quanto à do BeautifulSoup, sua performance tende a ser melhor. Caso velocidade seja um ponto importante, esta pode ser a melhor opção. A escolha entre as duas bibliotecas é uma questão de preferência.

É importante manter em mente que não existe uma biblioteca que seja “a correta”. A ferramenta ideal sempre depende do problema que se tem em mãos. E, caso uma dessas bibliotecas não ofereça a solução que você precisa, existem inúmeras outras que podem ajudar a resolver seu problema.