[Oa-italia] REMINDER -III Convegno AISA - Scienza aperta e integrità della ricerca - Milano 9-10 novembre 2017
Paola Gargiulo
p.gargiulo a cineca.it
Ven 3 Nov 2017 11:12:36 CET
La prossima settimana si terrà a Milano presso l'Università Statale di
Milano il 9 e 10 novembre il convegno organizzato da AISA -
l'Associazione italiana per la promozione della Scienza Aperta sul tema
dell'integrità della ricerca e di scienza aperta.
Il pomeriggio del 9 novembre sarà dedicato agli interventi dei quattro
relatori invitati, esperti italiani ad altissimo livello, mentre la
mattinata del 10 offrirà spazio alla presentazione di quattro risposte
alla /call for papers/ <http://aisa.sp.unipi.it/attivita/cfpIII> del
maggio 2017.
http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/programma/
Per iscriversi
http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/registrazione/
Cordiali saluti,
Paola
___________________________________________________________________________________________________
//
/AISA Convegno III - Scienza Aperta e integrità della ricerca
/
/9 novembre 2017/
aula 113 via Festa del Perdono 7 <http://www.unimi.it/17183.htm>
ore 15-19
Emilia Perassi
<http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=12441&pTab=1>
(Università di Milano, delegata per l’Open Access), Paola Galimberti
<http://orcid.org/0000-0003-1410-1307> (consigliera AISA, Università di
Milano), Maria Chiara Pievatolo
<https://people.unipi.it/mariachiara_pievatolo/> (vice-presidente AISA,
Università di Pisa), /Apertura dei lavori/
Alberto Baccini <https://albertobaccini.wordpress.com/cv/> (Università
di Siena) Giuseppe De Nicolao
<http://sisdin.unipv.it/labsisdin/people/dengiu/dengiu.php> (Università
di Pavia)
*/ANVUR: i dati chiusi della bibliometria di stato/*
L’Italia è probabilmente il paese del mondo occidentale dove
l’ossessione per le etichette d’eccellenza sta modificando più
profondamente i comportamenti dei ricercatori e delle istituzioni. Con
l’esercizio di valutazione massiva della ricerca denominato VQR, si è
inaugurata una fase di crescente controllo centralizzato, realizzato
attraverso dispositivi apparentemente tecnici. Il tentativo di dare una
giustificazione scientifica ai metodi di valutazione adottati nella
valutazione ha generato un inedito conflitto tra dimensione politica,
scientifica ed etica della ricerca. In questo contributo, l’attenzione è
focalizzata sull’esperimento condotto e analizzato dall’Agenzia italiana
per la valutazione della ricerca (ANVUR) per validare la metodologia
adottata per la valutazione. Se ne descrive dettagliatamente la
strategia di diffusione da parte dell’agenzia, con la pubblicazione di
estratti dei rapporti ufficiali in /working papers/ di diverse
istituzioni, riviste accademiche e blog gestiti da /think-tank/. E si
illustra un inedito conflitto di interessi: la metodologia e i risultati
della valutazione della ricerca nazionale sono stati giustificati a
posteriori con documenti scritti dagli stessi studiosi che hanno
sviluppato e applicato la metodologia ufficialmente adottata dal governo
italiano. Inoltre, i risultati pubblicati in questi articoli non sono
replicabili, dal momento che i dati non sono mai stati resi disponibili
a studiosi diversi da quelli che collaborano con ANVUR.
Mario Biagioli <https://law.ucdavis.edu/faculty/biagioli/> (Center for
Science & Innovation Studies – UC Davis)
*/Metrics and misconduct: redefining “publication” and “evaluation”/*
Tradizionalmente, la frode scientifica e accademica è stata legata alla
mentalità “publish or perish” e, più recentemente, alle nuove
possibilità offerte dalle tecnologie di pubblicazione digitale. Voglio
suggerire, invece, che oggi la frode sta attraversando una fase di
profonda trasformazione, adattandosi ai nuovi regimi di valutazione
basati su indici quantitativi, ed ai nuovi incentivi a loro associati.
Questi sviluppi stanno influenzando sia la pratica che il concetto di
frode. La definizione tradizionale di frode era radicata
sull’opposizione fra verità e falsità, giusto e sbagliato, errore onesto
e manipolazione intenzionale. Invece, alcune delle nuove forme di frode
connesse e incentivate dai regimi quantitativi di valutazione accademica
sembrano più vicine a pratiche di “gaming” che a chiare violazioni di
norme etiche o legali. Queste nuove forme di frode ci spingono quindi a
ridefinire la frode ma, allo stesso tempo, ci chiedono anche di
ripensare sia il concetto di pubblicazione che di quello d’impatto.
Enrico Bucci <http://www.scienzainrete.it/taxonomy/term/1471> (Sbarro
Health Research Organization – Temple University, Philadelphia; Resis
Srl – Ivrea)
*/Metriche bibliometriche ed effetti distorsivi su etica e produzione
scientifica/*
La tendenza attuale ad inquadrare la ricerca scientifica di qualunque
ambito come un’attività fortemente competitiva per i fondi e per
l’avanzamento professionale è giustificata con l’argomentazione che, in
presenza di un finanziamento pubblico limitato, le istituzioni che
rappresentano il cittadino devono poter effettuare una scelta quanto più
oculata possibile degli enti e dei ricercatori destinatari del denaro
pubblico.
Sebbene questa argomentazione possa essere condivisibile, essa
costituisce il punto di partenza per la creazione di un meccanismo che
in realtà tradisce proprio lo scopo che si intende raggiungere, quello
cioè di identificare la migliore ricerca ed i migliori ricercatori e di
garantire il miglior ritorno possibile all’investimento del cittadino.
Trascurando infatti di approfondire cosa si intende per migliori
scienziati e per scienza più promettente, è facile dimostrare come le
politiche concretamente messe in atto, tutte poggiate sull’uso distorto
e in taluni casi assolutamente infondato di metriche bibliometriche più
o meno complesse, soprattutto quando tali politiche si accompagnano ad
una eccessiva concentrazione di fondi su pochi istituti e ricercatori
“di eccellenza”, producono di fatto una profonda distorsione nelle
finalità stesse della ricerca scientifica ed in ultima analisi portano
ad un’esponenziale crescita di pubblicazioni manipolate e false. Poiché
queste sono a loro volta utilizzate tal quali per la valutazione della
ricerca, si genera un pericoloso meccanismo a /feedback/ positivo, con
il catastrofico risultato finale che si può prevedere, per cui tutte le
risorse finiscono per essere allocate nella peggiore ricerca.
Giuseppe Longo <http://www.di.ens.fr/users/longo/> (Centre Cavaillès,
CNRS, Ecole Normale Supérieure, Paris; Department of Integrative
Physiology and Pathobiology, Tufts University School of Medicine, Boston)
*/Scienza e senso: deformazioni scientiste del rapporto al reale/*
Una nuova correlazione sembra stabilirsi fra strumenti di valutazione e
«scientismo». Da una parte, tecniche bibliometriche rendono difficile
quel che in scienza più conta: lo spirito critico, l’idea veramente
originale, l’apertura di nuovi spazi di senso, necessariamente non
con-sensuali. Dall’altra, sempre più si fa credere che la scienza
coincida con l’occupazione progressiva e completa del reale con gli
strumenti che già si hanno. Così «metodi di ottimizzazione», originari e
pertinenti in teorie fisico-matematiche del XIX secolo, pretendono di
governare l’economia all’equilibrio, individuare l’ottimalità di
traiettorie filogenetiche ed ontogenetiche in biologia, guidare il «deep
learning» sui Big Data. Promesse mirabolanti (curare l’Alzheimer ed il
Parkinson capendoli nel silicio, personalizzare la medicina grazie ad
una perfetta conoscenza del DNA, prevedere senza capire grazie ai Big
Data …) sono accompagnate dall’uso di strumenti ben consolidati o
vetusti, a tutti comprensibili, di facile successo bibliometrico a breve
termine e presentate con parole d’ordine allettanti (il percorso
migliore, l’unico possibile, in economia, in biologia, … ; macchine per
il «deep learning», con o senza «supervisione» e con «ricompense», che
evocano un bambino Pavloviano che apprende). Le tante promesse
garantiscono finanziamenti miliardari, definiscono i progetti di
“eccellenza”; il dubbio scientifico, l’incertezza, il “risultato
negativo”, la critica che esplora altri punti di vista, ne vengono
esclusi. Così, progetti ricchissimi portano a valanghe di pubblicazioni
e di citazioni, in giochi di rinvii reciproci; queste garantiscono nuovi
finanziamenti.
Lo scientismo crede nel progresso cumulativo della scienza, lungo
un’unica via possibile verso la verità, indicata ovviamente da chi
detiene il “pacchetto di maggioranza”; le bibliometria è la misura e
l’indicatore di tale progresso. Si metteranno infine in evidenza i
legami stretti fra scienza e democrazia, fra scienza e costruzione
storica di senso.
Moderatore: *Roberto Caso
<http://www.lawtech.jus.unitn.it/index.php/people/roberto-caso>
*(presidente AISA, università di Trento)
/10 novembre 2017/
Sala Napoleonica via Sant’Antonio 12 <http://www.unimi.it/17183.htm>
ore 9-13
Maria Cassella <https://www.unito.it/persone/mcassell> (Università di
Torino)
*/Strumenti e pratiche per l’open science: l’open peer review tra
opportunità e (qualche) perplessità/*
L’intervento si propone di offrire una prima riflessione sulle pratiche
dell’open peer review, un termine cappello che racchiude diverse
modalità alternative di revisione “aperta” tra pari.
Ford (2013), ad esempio ne cita otto, mentre Hellauer (2016) ne
individua sette diverse tipologie.
L’/open peer review/ migliora il processo di revisione rendendolo più
aperto e trasparente. Il contributo cerca, tuttavia, di rispondere a due
temi cruciali per il futuro dell’open peer review:
1. come raccogliere una massa critica di contributi che siano
scientificamente rilevanti;
2. se l’/open peer review/ possa dirsi qualitativamente superiore al
sistema di revisione più tradizionale (/single blind/ o /double
blind/ che sia).
Rispetto al primo problema l’autore propone come forma ottimale di opr
non quella dell’/open crowd review/ (/open participation/) che può
essere utilizzata post-pubblicazione per raccogliere eventuali commenti
e suggerimenti ma quella basata sull’invito a partecipare al dibattito
rivolto ad una cerchia selezionata di revisori.Le diverse forme di opr
non sono, infatti, neutrali rispetto alle comunità, ai gruppi di ricerca
alle tipologie (monografia o articolo) e alle modalità di pubblicazione
(piattaforma o rivista). Rispetto al secondo problema alcuni studi
dimostrano la superiore valenza qualitativa dell’opr: Bormann (2011) e
Maria K. Kowalczuk, et al. (2015).
L’adozione dell’opr nella comunicazione scientifica richiede un cambio
di paradigma. La tecnologia e la scienza aperta stanno favorendo la
diffusione di diverse forme di opr. Grazie alla revisione partitaria
aperta la peer review riacquista il valore di servizio per le comunità
di ricerca e si esalta il dialogo tra scienziati e tra discipline
diverse. “Somewhere along the way in education, we forgot that peer
review is a conversation. The peer-review process reminds us of those
human connections.”(Brito et al. 2014). Rispetto al nesso con le norme
mertoniane della scienza l’opr facilita e velocizza il riconoscimento
pubblico del lavoro del ricercatore. Aggiunge al riconoscimento per il
lavoro di ricerca anche il riconoscimento del lavoro dei revisori. Al
tempo stesso rispetta il valore mertoniano del comunismo. Nel mondo
dell’open science le norme mertoniane della scienza riprendono vigore,
anche se restano imperfette.
Diego Giorio <http://diegogiorio.com/> (Comune di Villanova Canavese –
SEPEL Editrice)
*/Gli open data pubblici a supporto e validazione della ricerca/*
Nell’era dell’informazione, l’immenso patrimonio di dati detenuti negli
uffici pubblici, può essere messo a disposizione di tutti: cittadini,
studiosi, altre entità pubbliche e di ricerca. Dati demografici,
nascite, morti con relative cause, rilievi topografici, cataloghi di
musei e biblioteche, elementi sulle attività industriali ed artigianali,
flussi di traffico… Solo per citare i primi esempi che vengono in mente
di una lista quasi infinita.
Le norme già ci sono, la diffusione dei dati stenta però a decollare per
tanti motivi, dalla penuria di tempo e di personale negli uffici, alla
scarsa attitudine mentale degli impiegati, agli applicativi software non
ancora adeguati. Con opportune campagne di informazione, e con
l’auspicabile svecchiamento della PA, non si tratta tuttavia di un
problema insormontabile.
Un secondo problema da non sottovalutare è l’anonimizzazione dei dati,
che devono essere resi disponibili in forma sufficientemente dettagliata
da essere utili e fruibili, ma abbastanza aggregata da non poter
risalire all’interessato neppure per via indiretta, questione piuttosto
scivolosa nell’era dei big data. Questo rischio si accentua per la
peculiarità del territorio italiano, diviso in quasi 8000 Comuni anche
molto piccoli.
Assumendo comunque che i dati siano disponibili e correttamente gestiti,
l’effetto non può che essere positivo per i ricercatori e per chi deve
verificare il loro lavoro. Inoltre, poiché non sempre i dati in possesso
della PA sono corretti e completi, potrebbe verificarsi anche il
percorso inverso, ovvero la correzione di errori ed anomalie rilevate
nel corso della ricerca.
Insomma, un circolo virtuoso che non è facile innescare ma che, una
volta messo in moto, non può che portare benefici a tutta la società.
Daniela Luzi
<http://www.irpps.cnr.it/it/chi-siamo/personale/daniela-luzi>, Roberta
Ruggieri <mailto:r.ruggieri a irpps.cnr.it>, Lucio Pisacane
<http://www.irpps.cnr.it/it/chi-siamo/personale/lucio-pisacane>, Rosa Di
Cesare <http://www.irpps.cnr.it/it/chi-siamo/personale/rosa-di-cesare>
(CNR – Istituto di Ricerche sulla Popolazione e le Politiche Sociali, Roma)
*/Open peer review dei dati: uno studio pilota nelle scienze sociali/*
L’/open peer review/ (OPR) può essere applicata a tutte le tipologie di
risultati della ricerca, dagli articoli scientifici, alle proposte di
progetto fino ai dataset. Tuttavia, a partire dalla sua definizione,
vanno ancora analizzati i criteri e modalità per assicurare una
valutazione trasparente ed efficace per il progresso della ricerca
scientifica. Ciò si inquadra nell’ambito dell’Open Science che coglie
l’esigenza di analizzare le trasformazioni strutturali e tecnologiche
nel sistema della comunicazione scientifica odierna. E’ proprio in tale
contesto che i principi di Merton – in particolare quelli di communality
e organized skepticism – diventano importanti punti di riferimento.
Questo studio ha lo scopo di analizzare l’applicabilità della revisione
paritaria aperta dei dati della ricerca prodotti nelle discipline
afferenti alle scienze sociali. Lo studio inserisce nel progetto europeo
OpenUP <http://openup-h2020.eu/> (OPENing UP new methods, indicators and
tools for peer review, dissemination of research results, and impact
measurement), che intende analizzare le trasformazioni nell’attuale
scenario della ricerca scientifica allo scopo di 1) identificare
meccanismi, processi e strumenti innovativi per la peer review applicata
a tutti i risultati della ricerca (pubblicazioni, software e dati), 2)
esplorare i meccanismi della disseminazione innovativa efficaci per le
imprese, l’industria, il settore educativo e la società nel suo insieme
e 3) analizzare un insieme di nuovi indicatori (altmetric) che valutano
l’impatto dei risultati della ricerca collegandoli ai canali per la
disseminazione.
OpenUp utilizza una metodologia centrata sull’utente. Questo approccio
metodologico non solo coinvolge tutti gli stakeholder (ricercatori, case
editrici, enti che finanziano la ricerca, istituzioni, industria e il
pubblico in generale) in una serie di workshops, conferenze e corsi di
formazione, ma vuole testare i risultati acquisiti in un set di studi
pilota. Questi ultimi sono collegati ai tre pilastri del progetto
(revisione paritaria, disseminazione innovativa dei risultati e
altmetric) e sono applicati ad alcune comunità e settori della ricerca
specifici: scienze umane, scienze sociali, energia e scienze della vita.
Nello specifico il lavoro presentato intende descrivere la metodologia
usata per sviluppare lo studio pilota sull’OPR dei dati nelle scienze
sociali. In particolare si concentra sulla prima fase che intende
ricostruire il contesto generale della diffusione e condivisione dei
dati. Sulla base di questa analisi, saranno identificati i criteri di
selezione della comunità da coinvolgere nello studio pilota, insieme
alle caratteristiche e alle problematiche specifiche che verranno
successivamente indagate durante il suo svolgimento. L’analisi prende in
considerazione sia la prospettiva di coloro che forniscono i dati sia
quella degli utenti che li utilizzano. Essa si pone nella prospettiva di
considerare i principi Mertoniani ed in particolare le problematiche
legate alla loro applicabilità nella condivisione e valutazione dei dati
della ricerca.
Silvia Scalzini
<https://www.lider-lab.sssup.it/lider/en/persona/silvia-scalzini> (LUISS
Guido Carli, Lider Lab – Dirpolis Scuola Superiore Sant’Anna)
*/A chi appartengono le mie idee? Un itinerario tra diritto ed etica
attorno al concetto di ‘scientific authorship’ nell’era della scienza
aperta/*
Un lavoro scientifico, a qualunque branca del sapere appartenga, è il
frutto di intuizione, dedizione e della costruzione di una profonda
conoscenza dell’argomento. Uno dei problemi più spinosi è la corretta
attribuzione di un lavoro scientifico a colui o coloro che lo hanno
posto in essere. Tale difficoltà deriva da una serie di fattori.
Anzitutto un lavoro scientifico non si limita all’articolo finale, ma
comprende misurazioni, sperimentazioni, scambi di idee, codici e così
via, elementi non facilmente scomponibili ed attribuibili ai vari
“autori”. Altre volte, la non corretta attribuzione di un lavoro deriva
da condotte scorrette poste in essere dai ricercatori. Tali condotte si
collocano in uno spettro di mutevole gravità, che va dal plagio ad
“appropriazioni” sempre più sfumate. Per citare alcuni esempi estremi,
sono diffusi i casi in cui il lavoro di giovani ricercatori non viene
riconosciuto e la paternità è usurpata. Sono noti anche casi in cui
l’ordine dei nomi degli autori in un /paper/ scientifico è deciso
arbitrariamente, in assenza di coercibilità della condotta. E l’elenco
potrebbe continuare con la descrizione della morfologia di vecchie e
nuove attività che si pongono più o meno nitidamente in esso, e che sono
esacerbate dall’attuale contesto del “publish or perish”.
La disciplina sul diritto d’autore protegge l’espressione dell’idea e
non l’idea in sé. L’opera dell’ingegno, inoltre, per essere suscettibile
di protezione dovrà superare la soglia del “carattere creativo”. I
canoni del diritto d’autore non sono, quindi, spesso in grado di
regolare “i debiti di idee degli scienziati” (M. Bertani, /Diritto
d’autore e connessi/, in L.C. Ubertazzi (a cura di), /La Proprietà
Intellettuale/, Giappichelli, 2011, p. 276), anche per motivi legati a
esigenze di certezza del diritto e di effettività della tutela. In certi
casi sono le stesse comunità scientifiche ad autoregolarsi, attraverso
l’adozione di norme sociali – ad esempio in materia di ordine dei nomi
nelle pubblicazioni – e di codici di condotta, come quelli – sempre più
raffinati – in materia di integrità nella ricerca, che mirano ad
indicare i – ed educare ai – “principi ed ai valori etici, dei doveri
deontologici e degli standard professionali sui quali si fonda una
condotta responsabile e corretta da parte di chi svolge, finanzia o
valuta la ricerca scientifica nonché da parte delle istituzioni che la
promuovono e la realizzano” (/Linee Guida per l’integrità nella
ricerca/, elaborate nell’ambito delle attività della Commissione per
l’Etica della Ricerca e la Bioetica del Consiglio Nazionale delle
Ricerche (CNR)). La scienza aperta, inoltre, può agevolare la corretta
attribuzione di un lavoro, in quanto la diffusione di un’idea ad una
vasta comunità scientifica dovrebbe sancirne pubblicamente la priorità.
Labili sono, tuttavia, ancora i confini del concetto di attribuzione
scientifica ed incerto il perimetro delle condotte illecite e scorrette
che vi si associano, nonché del limite tra il fisiologico evolversi
della scienza ed il suo carattere patologico.
Il presente lavoro intende, dunque, illustrare una riflessione in corso
sull’intersezione e la sovrapposizione di nozioni ed interpretazioni che
ruotano attorno al concetto di “attribuzione scientifica” a cavallo tra
le varie categorie del diritto e dell’etica.
Moderatore: *Marco Pedrazzi
<http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=14271&pTab=1>*
(presidente del Comitato etico dell’Università di Milano
<http://www.unimi.it/ateneo/20184.htm>)
--
Paola Gargiulo
OpenAIRE NOAD- National Open Access Desk-Italia
CINECA, Interuniversity Consortium for ICT & HPC
Via R. Sanzio 4, I-20090 Segrate MI, Italy
email:p.gargiulo a cineca.it
phone +39 02 26995-218
mobile + 39 328 9507 128
skype paolafoca
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://liste.cineca.it/pipermail/oa-italia/attachments/20171103/03c7abee/attachment-0001.html>
Maggiori informazioni sulla lista
OA-Italia