[Oa-italia] REMINDER -III Convegno AISA - Scienza aperta e integrità della ricerca - Milano 9-10 novembre 2017

Paola Gargiulo p.gargiulo a cineca.it
Ven 3 Nov 2017 11:12:36 CET


La prossima settimana si terrà a Milano presso l'Università Statale di 
Milano il 9 e 10 novembre il convegno organizzato da AISA - 
l'Associazione italiana per la promozione della Scienza Aperta sul tema 
dell'integrità della ricerca e di scienza aperta.

Il pomeriggio del 9 novembre sarà dedicato agli interventi dei quattro 
relatori invitati, esperti italiani ad altissimo livello, mentre la 
mattinata del 10 offrirà spazio alla presentazione di quattro risposte 
alla /call for papers/ <http://aisa.sp.unipi.it/attivita/cfpIII> del 
maggio 2017.

http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/programma/

Per iscriversi

http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/registrazione/

Cordiali saluti,

Paola

___________________________________________________________________________________________________
//

/AISA Convegno III - Scienza Aperta e integrità della ricerca
/

/9 novembre 2017/

aula 113 via Festa del Perdono 7 <http://www.unimi.it/17183.htm>

ore 15-19

Emilia Perassi 
<http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=12441&pTab=1> 
(Università di Milano, delegata per l’Open Access), Paola Galimberti 
<http://orcid.org/0000-0003-1410-1307> (consigliera AISA, Università di 
Milano), Maria Chiara Pievatolo 
<https://people.unipi.it/mariachiara_pievatolo/> (vice-presidente AISA, 
Università di Pisa), /Apertura dei lavori/

Alberto Baccini <https://albertobaccini.wordpress.com/cv/> (Università 
di Siena) Giuseppe De Nicolao 
<http://sisdin.unipv.it/labsisdin/people/dengiu/dengiu.php> (Università 
di Pavia)
*/ANVUR: i dati chiusi della bibliometria di stato/*

L’Italia è probabilmente il paese del mondo occidentale dove 
l’ossessione per le etichette d’eccellenza sta modificando più 
profondamente i comportamenti dei ricercatori e delle istituzioni. Con 
l’esercizio di valutazione massiva della ricerca denominato VQR, si è 
inaugurata una fase di crescente controllo centralizzato, realizzato 
attraverso dispositivi apparentemente tecnici. Il tentativo di dare una 
giustificazione scientifica ai metodi di valutazione adottati nella 
valutazione ha generato un inedito conflitto tra dimensione politica, 
scientifica ed etica della ricerca. In questo contributo, l’attenzione è 
focalizzata sull’esperimento condotto e analizzato dall’Agenzia italiana 
per la valutazione della ricerca (ANVUR) per validare la metodologia 
adottata per la valutazione. Se ne descrive dettagliatamente la 
strategia di diffusione da parte dell’agenzia, con la pubblicazione di 
estratti dei rapporti ufficiali in /working papers/ di diverse 
istituzioni, riviste accademiche e blog gestiti da /think-tank/. E si 
illustra un inedito conflitto di interessi: la metodologia e i risultati 
della valutazione della ricerca nazionale sono stati giustificati a 
posteriori con documenti scritti dagli stessi studiosi che hanno 
sviluppato e applicato la metodologia ufficialmente adottata dal governo 
italiano. Inoltre, i risultati pubblicati in questi articoli non sono 
replicabili, dal momento che i dati non sono mai stati resi disponibili 
a studiosi diversi da quelli che collaborano con ANVUR.

Mario Biagioli <https://law.ucdavis.edu/faculty/biagioli/> (Center for 
Science & Innovation Studies – UC Davis)
*/Metrics and misconduct: redefining “publication” and “evaluation”/*

Tradizionalmente, la frode scientifica e accademica è stata legata alla 
mentalità “publish or perish” e, più recentemente, alle nuove 
possibilità offerte dalle tecnologie di pubblicazione digitale. Voglio 
suggerire, invece, che oggi la frode sta attraversando una fase di 
profonda trasformazione, adattandosi ai nuovi regimi di valutazione 
basati su indici quantitativi, ed ai nuovi incentivi a loro associati. 
Questi sviluppi stanno influenzando sia la pratica che il concetto di 
frode. La definizione tradizionale di frode era radicata 
sull’opposizione fra verità e falsità, giusto e sbagliato, errore onesto 
e manipolazione intenzionale. Invece, alcune delle nuove forme di frode 
connesse e incentivate dai regimi quantitativi di valutazione accademica 
sembrano più vicine a pratiche di “gaming” che a chiare violazioni di 
norme etiche o legali. Queste nuove forme di frode ci spingono quindi a 
ridefinire la frode ma, allo stesso tempo, ci chiedono anche di 
ripensare sia il concetto di pubblicazione che di quello d’impatto.

Enrico Bucci <http://www.scienzainrete.it/taxonomy/term/1471> (Sbarro 
Health Research Organization – Temple University, Philadelphia; Resis 
Srl – Ivrea)
*/Metriche bibliometriche ed effetti distorsivi su etica e produzione 
scientifica/*

La tendenza attuale ad inquadrare la ricerca scientifica di qualunque 
ambito come un’attività fortemente competitiva per i fondi e per 
l’avanzamento professionale è giustificata con l’argomentazione che, in 
presenza di un finanziamento pubblico limitato, le istituzioni che 
rappresentano il cittadino devono poter effettuare una scelta quanto più 
oculata possibile degli enti e dei ricercatori destinatari del denaro 
pubblico.
Sebbene questa argomentazione possa essere condivisibile, essa 
costituisce il punto di partenza per la creazione di un meccanismo che 
in realtà tradisce proprio lo scopo che si intende raggiungere, quello 
cioè di identificare la migliore ricerca ed i migliori ricercatori e di 
garantire il miglior ritorno possibile all’investimento del cittadino. 
Trascurando infatti di approfondire cosa si intende per migliori 
scienziati e per scienza più promettente, è facile dimostrare come le 
politiche concretamente messe in atto, tutte poggiate sull’uso distorto 
e in taluni casi assolutamente infondato di metriche bibliometriche più 
o meno complesse, soprattutto quando tali politiche si accompagnano ad 
una eccessiva concentrazione di fondi su pochi istituti e ricercatori 
“di eccellenza”, producono di fatto una profonda distorsione nelle 
finalità stesse della ricerca scientifica ed in ultima analisi portano 
ad un’esponenziale crescita di pubblicazioni manipolate e false. Poiché 
queste sono a loro volta utilizzate tal quali per la valutazione della 
ricerca, si genera un pericoloso meccanismo a /feedback/ positivo, con 
il catastrofico risultato finale che si può prevedere, per cui tutte le 
risorse finiscono per essere allocate nella peggiore ricerca.

Giuseppe Longo <http://www.di.ens.fr/users/longo/> (Centre Cavaillès, 
CNRS, Ecole Normale Supérieure, Paris; Department of Integrative 
Physiology and Pathobiology, Tufts University School of Medicine, Boston)
*/Scienza e senso: deformazioni scientiste del rapporto al reale/*

Una nuova correlazione sembra stabilirsi fra strumenti di valutazione e 
«scientismo». Da una parte, tecniche bibliometriche rendono difficile 
quel che in scienza più conta: lo spirito critico, l’idea veramente 
originale, l’apertura di nuovi spazi di senso, necessariamente non 
con-sensuali. Dall’altra, sempre più si fa credere che la scienza 
coincida con l’occupazione progressiva e completa del reale con gli 
strumenti che già si hanno. Così «metodi di ottimizzazione», originari e 
pertinenti in teorie fisico-matematiche del XIX secolo, pretendono di 
governare l’economia all’equilibrio, individuare l’ottimalità di 
traiettorie filogenetiche ed ontogenetiche in biologia, guidare il «deep 
learning» sui Big Data. Promesse mirabolanti (curare l’Alzheimer ed il 
Parkinson capendoli nel silicio, personalizzare la medicina grazie ad 
una perfetta conoscenza del DNA, prevedere senza capire grazie ai Big 
Data …) sono accompagnate dall’uso di strumenti ben consolidati o 
vetusti, a tutti comprensibili, di facile successo bibliometrico a breve 
termine e presentate con parole d’ordine allettanti (il percorso 
migliore, l’unico possibile, in economia, in biologia, … ; macchine per 
il «deep learning», con o senza «supervisione» e con «ricompense», che 
evocano un bambino Pavloviano che apprende). Le tante promesse 
garantiscono finanziamenti miliardari, definiscono i progetti di 
“eccellenza”; il dubbio scientifico, l’incertezza, il “risultato 
negativo”, la critica che esplora altri punti di vista, ne vengono 
esclusi. Così, progetti ricchissimi portano a valanghe di pubblicazioni 
e di citazioni, in giochi di rinvii reciproci; queste garantiscono nuovi 
finanziamenti.
Lo scientismo crede nel progresso cumulativo della scienza, lungo 
un’unica via possibile verso la verità, indicata ovviamente da chi 
detiene il “pacchetto di maggioranza”; le bibliometria è la misura e 
l’indicatore di tale progresso. Si metteranno infine in evidenza i 
legami stretti fra scienza e democrazia, fra scienza e costruzione 
storica di senso.

Moderatore: *Roberto Caso 
<http://www.lawtech.jus.unitn.it/index.php/people/roberto-caso> 
*(presidente AISA, università di Trento)

/10 novembre 2017/

Sala Napoleonica via Sant’Antonio 12 <http://www.unimi.it/17183.htm>

ore 9-13

Maria Cassella <https://www.unito.it/persone/mcassell> (Università di 
Torino)
*/Strumenti e pratiche per l’open science: l’open peer review tra 
opportunità e (qualche) perplessità/*

L’intervento si propone di offrire una prima riflessione sulle pratiche 
dell’open peer review, un termine cappello che racchiude diverse 
modalità alternative di revisione “aperta” tra pari.
Ford (2013), ad esempio ne cita otto, mentre Hellauer (2016) ne 
individua sette diverse tipologie.
L’/open peer review/ migliora il processo di revisione rendendolo più 
aperto e trasparente. Il contributo cerca, tuttavia, di rispondere a due 
temi cruciali per il futuro dell’open peer review:

 1. come raccogliere una massa critica di contributi che siano
    scientificamente rilevanti;
 2. se l’/open peer review/ possa dirsi qualitativamente superiore al
    sistema di revisione più tradizionale (/single blind/ o /double
    blind/ che sia).

Rispetto al primo problema l’autore propone come forma ottimale di opr 
non quella dell’/open crowd review/ (/open participation/) che può 
essere utilizzata post-pubblicazione per raccogliere eventuali commenti 
e suggerimenti ma quella basata sull’invito a partecipare al dibattito 
rivolto ad una cerchia selezionata di revisori.Le diverse forme di opr 
non sono, infatti, neutrali rispetto alle comunità, ai gruppi di ricerca 
alle tipologie (monografia o articolo) e alle modalità di pubblicazione 
(piattaforma o rivista). Rispetto al secondo problema alcuni studi 
dimostrano la superiore valenza qualitativa dell’opr: Bormann (2011) e 
Maria K. Kowalczuk, et al. (2015).
L’adozione dell’opr nella comunicazione scientifica richiede un cambio 
di paradigma. La tecnologia e la scienza aperta stanno favorendo la 
diffusione di diverse forme di opr. Grazie alla revisione partitaria 
aperta la peer review riacquista il valore di servizio per le comunità 
di ricerca e si esalta il dialogo tra scienziati e tra discipline 
diverse. “Somewhere along the way in education, we forgot that peer 
review is a conversation. The peer-review process reminds us of those 
human connections.”(Brito et al. 2014). Rispetto al nesso con le norme 
mertoniane della scienza l’opr facilita e velocizza il riconoscimento 
pubblico del lavoro del ricercatore. Aggiunge al riconoscimento per il 
lavoro di ricerca anche il riconoscimento del lavoro dei revisori. Al 
tempo stesso rispetta il valore mertoniano del comunismo. Nel mondo 
dell’open science le norme mertoniane della scienza riprendono vigore, 
anche se restano imperfette.

Diego Giorio <http://diegogiorio.com/> (Comune di Villanova Canavese – 
SEPEL Editrice)
*/Gli open data pubblici a supporto e validazione della ricerca/*

Nell’era dell’informazione, l’immenso patrimonio di dati detenuti negli 
uffici pubblici, può essere messo a disposizione di tutti: cittadini, 
studiosi, altre entità pubbliche e di ricerca. Dati demografici, 
nascite, morti con relative cause, rilievi topografici, cataloghi di 
musei e biblioteche, elementi sulle attività industriali ed artigianali, 
flussi di traffico… Solo per citare i primi esempi che vengono in mente 
di una lista quasi infinita.
Le norme già ci sono, la diffusione dei dati stenta però a decollare per 
tanti motivi, dalla penuria di tempo e di personale negli uffici, alla 
scarsa attitudine mentale degli impiegati, agli applicativi software non 
ancora adeguati. Con opportune campagne di informazione, e con 
l’auspicabile svecchiamento della PA, non si tratta tuttavia di un 
problema insormontabile.
Un secondo problema da non sottovalutare è l’anonimizzazione dei dati, 
che devono essere resi disponibili in forma sufficientemente dettagliata 
da essere utili e fruibili, ma abbastanza aggregata da non poter 
risalire all’interessato neppure per via indiretta, questione piuttosto 
scivolosa nell’era dei big data. Questo rischio si accentua per la 
peculiarità del territorio italiano, diviso in quasi 8000 Comuni anche 
molto piccoli.
Assumendo comunque che i dati siano disponibili e correttamente gestiti, 
l’effetto non può che essere positivo per i ricercatori e per chi deve 
verificare il loro lavoro. Inoltre, poiché non sempre i dati in possesso 
della PA sono corretti e completi, potrebbe verificarsi anche il 
percorso inverso, ovvero la correzione di errori ed anomalie rilevate 
nel corso della ricerca.
Insomma, un circolo virtuoso che non è facile innescare ma che, una 
volta messo in moto, non può che portare benefici a tutta la società.

Daniela Luzi 
<http://www.irpps.cnr.it/it/chi-siamo/personale/daniela-luzi>, Roberta 
Ruggieri <mailto:r.ruggieri a irpps.cnr.it>, Lucio Pisacane 
<http://www.irpps.cnr.it/it/chi-siamo/personale/lucio-pisacane>, Rosa Di 
Cesare <http://www.irpps.cnr.it/it/chi-siamo/personale/rosa-di-cesare> 
(CNR – Istituto di Ricerche sulla Popolazione e le Politiche Sociali, Roma)
*/Open peer review dei dati: uno studio pilota nelle scienze sociali/*

L’/open peer review/ (OPR) può essere applicata a tutte le tipologie di 
risultati della ricerca, dagli articoli scientifici, alle proposte di 
progetto fino ai dataset. Tuttavia, a partire dalla sua definizione, 
vanno ancora analizzati i criteri e modalità per assicurare una 
valutazione trasparente ed efficace per il progresso della ricerca 
scientifica. Ciò si inquadra nell’ambito dell’Open Science che coglie 
l’esigenza di analizzare le trasformazioni strutturali e tecnologiche 
nel sistema della comunicazione scientifica odierna. E’ proprio in tale 
contesto che i principi di Merton – in particolare quelli di communality 
e organized skepticism – diventano importanti punti di riferimento.
Questo studio ha lo scopo di analizzare l’applicabilità della revisione 
paritaria aperta dei dati della ricerca prodotti nelle discipline 
afferenti alle scienze sociali. Lo studio inserisce nel progetto europeo 
OpenUP <http://openup-h2020.eu/> (OPENing UP new methods, indicators and 
tools for peer review, dissemination of research results, and impact 
measurement), che intende analizzare le trasformazioni nell’attuale 
scenario della ricerca scientifica allo scopo di 1) identificare 
meccanismi, processi e strumenti innovativi per la peer review applicata 
a tutti i risultati della ricerca (pubblicazioni, software e dati), 2) 
esplorare i meccanismi della disseminazione innovativa efficaci per le 
imprese, l’industria, il settore educativo e la società nel suo insieme 
e 3) analizzare un insieme di nuovi indicatori (altmetric) che valutano 
l’impatto dei risultati della ricerca collegandoli ai canali per la 
disseminazione.
OpenUp utilizza una metodologia centrata sull’utente. Questo approccio 
metodologico non solo coinvolge tutti gli stakeholder (ricercatori, case 
editrici, enti che finanziano la ricerca, istituzioni, industria e il 
pubblico in generale) in una serie di workshops, conferenze e corsi di 
formazione, ma vuole testare i risultati acquisiti in un set di studi 
pilota. Questi ultimi sono collegati ai tre pilastri del progetto 
(revisione paritaria, disseminazione innovativa dei risultati e 
altmetric) e sono applicati ad alcune comunità e settori della ricerca 
specifici: scienze umane, scienze sociali, energia e scienze della vita.
Nello specifico il lavoro presentato intende descrivere la metodologia 
usata per sviluppare lo studio pilota sull’OPR dei dati nelle scienze 
sociali. In particolare si concentra sulla prima fase che intende 
ricostruire il contesto generale della diffusione e condivisione dei 
dati. Sulla base di questa analisi, saranno identificati i criteri di 
selezione della comunità da coinvolgere nello studio pilota, insieme 
alle caratteristiche e alle problematiche specifiche che verranno 
successivamente indagate durante il suo svolgimento. L’analisi prende in 
considerazione sia la prospettiva di coloro che forniscono i dati sia 
quella degli utenti che li utilizzano. Essa si pone nella prospettiva di 
considerare i principi Mertoniani ed in particolare le problematiche 
legate alla loro applicabilità nella condivisione e valutazione dei dati 
della ricerca.

Silvia Scalzini 
<https://www.lider-lab.sssup.it/lider/en/persona/silvia-scalzini> (LUISS 
Guido Carli, Lider Lab – Dirpolis Scuola Superiore Sant’Anna)
*/A chi appartengono le mie idee? Un itinerario tra diritto ed etica 
attorno al concetto di ‘scientific authorship’ nell’era della scienza 
aperta/*

Un lavoro scientifico, a qualunque branca del sapere appartenga, è il 
frutto di intuizione, dedizione e della costruzione di una profonda 
conoscenza dell’argomento. Uno dei problemi più spinosi è la corretta 
attribuzione di un lavoro scientifico a colui o coloro che lo hanno 
posto in essere. Tale difficoltà deriva da una serie di fattori. 
Anzitutto un lavoro scientifico non si limita all’articolo finale, ma 
comprende misurazioni, sperimentazioni, scambi di idee, codici e così 
via, elementi non facilmente scomponibili ed attribuibili ai vari 
“autori”. Altre volte, la non corretta attribuzione di un lavoro deriva 
da condotte scorrette poste in essere dai ricercatori. Tali condotte si 
collocano in uno spettro di mutevole gravità, che va dal plagio ad 
“appropriazioni” sempre più sfumate. Per citare alcuni esempi estremi, 
sono diffusi i casi in cui il lavoro di giovani ricercatori non viene 
riconosciuto e la paternità è usurpata. Sono noti anche casi in cui 
l’ordine dei nomi degli autori in un /paper/ scientifico è deciso 
arbitrariamente, in assenza di coercibilità della condotta. E l’elenco 
potrebbe continuare con la descrizione della morfologia di vecchie e 
nuove attività che si pongono più o meno nitidamente in esso, e che sono 
esacerbate dall’attuale contesto del “publish or perish”.
La disciplina sul diritto d’autore protegge l’espressione dell’idea e 
non l’idea in sé. L’opera dell’ingegno, inoltre, per essere suscettibile 
di protezione dovrà superare la soglia del “carattere creativo”. I 
canoni del diritto d’autore non sono, quindi, spesso in grado di 
regolare “i debiti di idee degli scienziati” (M. Bertani, /Diritto 
d’autore e connessi/, in L.C. Ubertazzi (a cura di), /La Proprietà 
Intellettuale/, Giappichelli, 2011, p. 276), anche per motivi legati a 
esigenze di certezza del diritto e di effettività della tutela. In certi 
casi sono le stesse comunità scientifiche ad autoregolarsi, attraverso 
l’adozione di norme sociali – ad esempio in materia di ordine dei nomi 
nelle pubblicazioni – e di codici di condotta, come quelli – sempre più 
raffinati – in materia di integrità nella ricerca, che mirano ad 
indicare i – ed educare ai – “principi ed ai valori etici, dei doveri 
deontologici e degli standard professionali sui quali si fonda una 
condotta responsabile e corretta da parte di chi svolge, finanzia o 
valuta la ricerca scientifica nonché da parte delle istituzioni che la 
promuovono e la realizzano” (/Linee Guida per l’integrità nella 
ricerca/, elaborate nell’ambito delle attività della Commissione per 
l’Etica della Ricerca e la Bioetica del Consiglio Nazionale delle 
Ricerche (CNR)). La scienza aperta, inoltre, può agevolare la corretta 
attribuzione di un lavoro, in quanto la diffusione di un’idea ad una 
vasta comunità scientifica dovrebbe sancirne pubblicamente la priorità. 
Labili sono, tuttavia, ancora i confini del concetto di attribuzione 
scientifica ed incerto il perimetro delle condotte illecite e scorrette 
che vi si associano, nonché del limite tra il fisiologico evolversi 
della scienza ed il suo carattere patologico.
Il presente lavoro intende, dunque, illustrare una riflessione in corso 
sull’intersezione e la sovrapposizione di nozioni ed interpretazioni che 
ruotano attorno al concetto di “attribuzione scientifica” a cavallo tra 
le varie categorie del diritto e dell’etica.

Moderatore: *Marco Pedrazzi 
<http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=14271&pTab=1>* 
(presidente del Comitato etico dell’Università di Milano 
<http://www.unimi.it/ateneo/20184.htm>)

-- 
Paola Gargiulo
OpenAIRE NOAD- National Open Access Desk-Italia
CINECA, Interuniversity Consortium for ICT & HPC
Via R. Sanzio 4, I-20090 Segrate MI, Italy
email:p.gargiulo a cineca.it
phone +39 02 26995-218
mobile + 39 328 9507 128
skype paolafoca

-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://liste.cineca.it/pipermail/oa-italia/attachments/20171103/03c7abee/attachment-0001.html>


Maggiori informazioni sulla lista OA-Italia