<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
</head>
<body text="#000000" bgcolor="#FFFFFF">
<p>La prossima settimana si terrà a Milano presso l'Università
Statale di Milano il 9 e 10 novembre il convegno organizzato da
AISA - l'Associazione italiana per la promozione della Scienza
Aperta sul tema dell'integrità della ricerca e di scienza aperta.<br>
</p>
<p> Il pomeriggio del 9 novembre sarà dedicato agli interventi dei
quattro relatori invitati, esperti italiani ad altissimo livello,
mentre la mattinata del 10 offrirà spazio alla presentazione di
quattro risposte alla <a
href="http://aisa.sp.unipi.it/attivita/cfpIII"><em>call for
papers</em></a> del maggio 2017.</p>
<p><a class="moz-txt-link-freetext"
href="http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/programma/">http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/programma/</a></p>
<p>Per iscriversi</p>
<p><a class="moz-txt-link-freetext"
href="http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/registrazione/">http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/registrazione/</a></p>
<p>Cordiali saluti,</p>
<p>Paola</p>
<p>___________________________________________________________________________________________________<br>
<i> </i></p>
<p><i>AISA Convegno III - Scienza Aperta e integrità della ricerca<br>
</i></p>
<p><i>9 novembre 2017</i> </p>
<p style="text-align: justify; margin-top: 1em;">aula 113 <a
href="http://www.unimi.it/17183.htm" target="_blank"
rel="noopener">via Festa del Perdono 7</a></p>
<p style="text-align: justify; margin-top: 1em;">ore 15-19</p>
<p style="text-align: justify; margin-top: 1.3em;"><a
href="http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=12441&pTab=1"
target="_blank" rel="noopener">Emilia Perassi</a> (Università di
Milano, delegata per l’Open Access), <a
href="http://orcid.org/0000-0003-1410-1307" target="_blank"
rel="noopener">Paola Galimberti</a> (consigliera AISA,
Università di Milano), <a
href="https://people.unipi.it/mariachiara_pievatolo/"
target="_blank" rel="noopener">Maria Chiara Pievatolo</a>
(vice-presidente AISA, Università di Pisa), <em>Apertura dei
lavori</em></p>
<p style="text-align: justify; margin-top: 1.3em;"><a
href="https://albertobaccini.wordpress.com/cv/" target="_blank"
rel="noopener">Alberto Baccini</a> (Università di Siena) <a
href="http://sisdin.unipv.it/labsisdin/people/dengiu/dengiu.php"
target="_blank" rel="noopener">Giuseppe De Nicolao</a>
(Università di Pavia)<br>
<strong><i>ANVUR: i dati chiusi della bibliometria di stato</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%; margin-bottom: 1.2em;">L’Italia è probabilmente
il paese del mondo occidentale dove l’ossessione per le etichette
d’eccellenza sta modificando più profondamente i comportamenti dei
ricercatori e delle istituzioni. Con l’esercizio di valutazione
massiva della ricerca denominato VQR, si è inaugurata una fase di
crescente controllo centralizzato, realizzato attraverso
dispositivi apparentemente tecnici. Il tentativo di dare una
giustificazione scientifica ai metodi di valutazione adottati
nella valutazione ha generato un inedito conflitto tra dimensione
politica, scientifica ed etica della ricerca. In questo
contributo, l’attenzione è focalizzata sull’esperimento condotto e
analizzato dall’Agenzia italiana per la valutazione della ricerca
(ANVUR) per validare la metodologia adottata per la valutazione.
Se ne descrive dettagliatamente la strategia di diffusione da
parte dell’agenzia, con la pubblicazione di estratti dei rapporti
ufficiali in <em>working papers</em> di diverse istituzioni,
riviste accademiche e blog gestiti da <em>think-tank</em>. E si
illustra un inedito conflitto di interessi: la metodologia e i
risultati della valutazione della ricerca nazionale sono stati
giustificati a posteriori con documenti scritti dagli stessi
studiosi che hanno sviluppato e applicato la metodologia
ufficialmente adottata dal governo italiano. Inoltre, i risultati
pubblicati in questi articoli non sono replicabili, dal momento
che i dati non sono mai stati resi disponibili a studiosi diversi
da quelli che collaborano con ANVUR.</p>
<p style="text-align: justify;"><a
href="https://law.ucdavis.edu/faculty/biagioli/" target="_blank"
rel="noopener">Mario Biagioli</a> (Center for Science &
Innovation Studies – UC Davis)<br>
<strong><em>Metrics and misconduct: redefining “publication” and
“evaluation”</em></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%; margin-bottom: 1.2em;">Tradizionalmente, la
frode scientifica e accademica è stata legata alla mentalità
“publish or perish” e, più recentemente, alle nuove possibilità
offerte dalle tecnologie di pubblicazione digitale. Voglio
suggerire, invece, che oggi la frode sta attraversando una fase di
profonda trasformazione, adattandosi ai nuovi regimi di
valutazione basati su indici quantitativi, ed ai nuovi incentivi a
loro associati. Questi sviluppi stanno influenzando sia la pratica
che il concetto di frode. La definizione tradizionale di frode era
radicata sull’opposizione fra verità e falsità, giusto e
sbagliato, errore onesto e manipolazione intenzionale. Invece,
alcune delle nuove forme di frode connesse e incentivate dai
regimi quantitativi di valutazione accademica sembrano più vicine
a pratiche di “gaming” che a chiare violazioni di norme etiche o
legali. Queste nuove forme di frode ci spingono quindi a
ridefinire la frode ma, allo stesso tempo, ci chiedono anche di
ripensare sia il concetto di pubblicazione che di quello
d’impatto.</p>
<p style="text-align: justify;"><a
href="http://www.scienzainrete.it/taxonomy/term/1471"
target="_blank" rel="noopener">Enrico Bucci</a> (Sbarro Health
Research Organization – Temple University, Philadelphia; Resis Srl
– Ivrea)<br>
<strong><i>Metriche bibliometriche ed effetti distorsivi su etica
e produzione scientifica</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%; margin-bottom: 1.2em;">La tendenza attuale ad
inquadrare la ricerca scientifica di qualunque ambito come
un’attività fortemente competitiva per i fondi e per l’avanzamento
professionale è giustificata con l’argomentazione che, in presenza
di un finanziamento pubblico limitato, le istituzioni che
rappresentano il cittadino devono poter effettuare una scelta
quanto più oculata possibile degli enti e dei ricercatori
destinatari del denaro pubblico.<br>
Sebbene questa argomentazione possa essere condivisibile, essa
costituisce il punto di partenza per la creazione di un meccanismo
che in realtà tradisce proprio lo scopo che si intende
raggiungere, quello cioè di identificare la migliore ricerca ed i
migliori ricercatori e di garantire il miglior ritorno possibile
all’investimento del cittadino. Trascurando infatti di
approfondire cosa si intende per migliori scienziati e per scienza
più promettente, è facile dimostrare come le politiche
concretamente messe in atto, tutte poggiate sull’uso distorto e in
taluni casi assolutamente infondato di metriche bibliometriche più
o meno complesse, soprattutto quando tali politiche si
accompagnano ad una eccessiva concentrazione di fondi su pochi
istituti e ricercatori “di eccellenza”, producono di fatto una
profonda distorsione nelle finalità stesse della ricerca
scientifica ed in ultima analisi portano ad un’esponenziale
crescita di pubblicazioni manipolate e false. Poiché queste sono a
loro volta utilizzate tal quali per la valutazione della ricerca,
si genera un pericoloso meccanismo a <em>feedback</em> positivo,
con il catastrofico risultato finale che si può prevedere, per cui
tutte le risorse finiscono per essere allocate nella peggiore
ricerca.</p>
<p style="text-align: justify;"><a
href="http://www.di.ens.fr/users/longo/" target="_blank"
rel="noopener">Giuseppe Longo</a> (Centre Cavaillès, CNRS, Ecole
Normale Supérieure, Paris; Department of Integrative Physiology
and Pathobiology, Tufts University School of Medicine, Boston)<br>
<strong><i>Scienza e senso: deformazioni scientiste del rapporto
al reale</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%; margin-bottom: 1.2em;">Una nuova correlazione
sembra stabilirsi fra strumenti di valutazione e «scientismo». Da
una parte, tecniche bibliometriche rendono difficile quel che in
scienza più conta: lo spirito critico, l’idea veramente originale,
l’apertura di nuovi spazi di senso, necessariamente non
con-sensuali. Dall’altra, sempre più si fa credere che la scienza
coincida con l’occupazione progressiva e completa del reale con
gli strumenti che già si hanno. Così «metodi di ottimizzazione»,
originari e pertinenti in teorie fisico-matematiche del XIX
secolo, pretendono di governare l’economia all’equilibrio,
individuare l’ottimalità di traiettorie filogenetiche ed
ontogenetiche in biologia, guidare il «deep learning» sui Big
Data. Promesse mirabolanti (curare l’Alzheimer ed il Parkinson
capendoli nel silicio, personalizzare la medicina grazie ad una
perfetta conoscenza del DNA, prevedere senza capire grazie ai Big
Data …) sono accompagnate dall’uso di strumenti ben consolidati o
vetusti, a tutti comprensibili, di facile successo bibliometrico a
breve termine e presentate con parole d’ordine allettanti (il
percorso migliore, l’unico possibile, in economia, in biologia,
… ; macchine per il «deep learning», con o senza «supervisione» e
con «ricompense», che evocano un bambino Pavloviano che apprende).
Le tante promesse garantiscono finanziamenti miliardari,
definiscono i progetti di “eccellenza”; il dubbio scientifico,
l’incertezza, il “risultato negativo”, la critica che esplora
altri punti di vista, ne vengono esclusi. Così, progetti
ricchissimi portano a valanghe di pubblicazioni e di citazioni, in
giochi di rinvii reciproci; queste garantiscono nuovi
finanziamenti.<br>
Lo scientismo crede nel progresso cumulativo della scienza, lungo
un’unica via possibile verso la verità, indicata ovviamente da chi
detiene il “pacchetto di maggioranza”; le bibliometria è la misura
e l’indicatore di tale progresso. Si metteranno infine in evidenza
i legami stretti fra scienza e democrazia, fra scienza e
costruzione storica di senso.</p>
<p>Moderatore: <strong><a
href="http://www.lawtech.jus.unitn.it/index.php/people/roberto-caso"
target="_blank" rel="noopener">Roberto Caso</a> </strong>(presidente
AISA, università di Trento)</p>
<p style="text-align: justify; margin-top: 1.6em;"><i>10 novembre
2017</i></p>
<p style="text-align: justify; margin-top: 1em;">Sala Napoleonica <a
href="http://www.unimi.it/17183.htm" target="_blank"
rel="noopener">via Sant’Antonio 12</a></p>
<p style="text-align: justify; margin-top: 1em;">ore 9-13</p>
<p style="text-align: justify; margin-top: 1.3em;"><a
href="https://www.unito.it/persone/mcassell" target="_blank"
rel="noopener">Maria Cassella</a> (Università di Torino)<br>
<strong><i>Strumenti e pratiche per l’open science: l’open peer
review tra opportunità e (qualche) perplessità</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%;">L’intervento si propone di offrire una prima
riflessione sulle pratiche dell’open peer review, un termine
cappello che racchiude diverse modalità alternative di revisione
“aperta” tra pari.<br>
Ford (2013), ad esempio ne cita otto, mentre Hellauer (2016) ne
individua sette diverse tipologie.<br>
L’<em>open peer review</em> migliora il processo di revisione
rendendolo più aperto e trasparente. Il contributo cerca,
tuttavia, di rispondere a due temi cruciali per il futuro
dell’open peer review:</p>
<ol>
<li style="text-align: justify; font-size: 0.9em; line-height:
99%;">come raccogliere una massa critica di contributi che siano
scientificamente rilevanti;</li>
<li style="text-align: justify; font-size: 0.9em; line-height:
99%;">se l’<em>open peer review</em> possa dirsi
qualitativamente superiore al sistema di revisione più
tradizionale (<em>single blind</em> o <em>double blind</em> che
sia).</li>
</ol>
<p style="text-align: justify; font-size: 0.9em; line-height: 99%;
margin-bottom: 1.2em;">Rispetto al primo problema l’autore propone
come forma ottimale di opr non quella dell’<em>open crowd review</em>
(<em>open participation</em>) che può essere utilizzata
post-pubblicazione per raccogliere eventuali commenti e
suggerimenti ma quella basata sull’invito a partecipare al
dibattito rivolto ad una cerchia selezionata di revisori.Le
diverse forme di opr non sono, infatti, neutrali rispetto alle
comunità, ai gruppi di ricerca alle tipologie (monografia o
articolo) e alle modalità di pubblicazione (piattaforma o
rivista). Rispetto al secondo problema alcuni studi dimostrano la
superiore valenza qualitativa dell’opr: Bormann (2011) e Maria K.
Kowalczuk, et al. (2015).<br>
L’adozione dell’opr nella comunicazione scientifica richiede un
cambio di paradigma. La tecnologia e la scienza aperta stanno
favorendo la diffusione di diverse forme di opr. Grazie alla
revisione partitaria aperta la peer review riacquista il valore di
servizio per le comunità di ricerca e si esalta il dialogo tra
scienziati e tra discipline diverse. “Somewhere along the way in
education, we forgot that peer review is a conversation. The
peer-review process reminds us of those human connections.”(Brito
et al. 2014). Rispetto al nesso con le norme mertoniane della
scienza l’opr facilita e velocizza il riconoscimento pubblico del
lavoro del ricercatore. Aggiunge al riconoscimento per il lavoro
di ricerca anche il riconoscimento del lavoro dei revisori. Al
tempo stesso rispetta il valore mertoniano del comunismo. Nel
mondo dell’open science le norme mertoniane della scienza
riprendono vigore, anche se restano imperfette.</p>
<p style="text-align: justify;"><a href="http://diegogiorio.com/"
target="_blank" rel="noopener">Diego Giorio</a> (Comune di
Villanova Canavese – SEPEL Editrice)<br>
<strong><i>Gli open data pubblici a supporto e validazione della
ricerca</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%;">Nell’era dell’informazione, l’immenso
patrimonio di dati detenuti negli uffici pubblici, può essere
messo a disposizione di tutti: cittadini, studiosi, altre entità
pubbliche e di ricerca. Dati demografici, nascite, morti con
relative cause, rilievi topografici, cataloghi di musei e
biblioteche, elementi sulle attività industriali ed artigianali,
flussi di traffico… Solo per citare i primi esempi che vengono in
mente di una lista quasi infinita.<br>
Le norme già ci sono, la diffusione dei dati stenta però a
decollare per tanti motivi, dalla penuria di tempo e di personale
negli uffici, alla scarsa attitudine mentale degli impiegati, agli
applicativi software non ancora adeguati. Con opportune campagne
di informazione, e con l’auspicabile svecchiamento della PA, non
si tratta tuttavia di un problema insormontabile.<br>
Un secondo problema da non sottovalutare è l’anonimizzazione dei
dati, che devono essere resi disponibili in forma sufficientemente
dettagliata da essere utili e fruibili, ma abbastanza aggregata da
non poter risalire all’interessato neppure per via indiretta,
questione piuttosto scivolosa nell’era dei big data. Questo
rischio si accentua per la peculiarità del territorio italiano,
diviso in quasi 8000 Comuni anche molto piccoli.<br>
Assumendo comunque che i dati siano disponibili e correttamente
gestiti, l’effetto non può che essere positivo per i ricercatori e
per chi deve verificare il loro lavoro. Inoltre, poiché non sempre
i dati in possesso della PA sono corretti e completi, potrebbe
verificarsi anche il percorso inverso, ovvero la correzione di
errori ed anomalie rilevate nel corso della ricerca.<br>
Insomma, un circolo virtuoso che non è facile innescare ma che,
una volta messo in moto, non può che portare benefici a tutta la
società.</p>
<p style="text-align: justify;"><a
href="http://www.irpps.cnr.it/it/chi-siamo/personale/daniela-luzi"
target="_blank" rel="noopener">Daniela Luzi</a>, <a
href="mailto:r.ruggieri@irpps.cnr.it" target="_blank"
rel="noopener">Roberta Ruggieri</a>, <a
href="http://www.irpps.cnr.it/it/chi-siamo/personale/lucio-pisacane"
target="_blank" rel="noopener">Lucio Pisacane</a>, <a
href="http://www.irpps.cnr.it/it/chi-siamo/personale/rosa-di-cesare"
target="_blank" rel="noopener">Rosa Di Cesare</a> (CNR –
Istituto di Ricerche sulla Popolazione e le Politiche Sociali,
Roma)<br>
<strong><i>Open peer review dei dati: uno studio pilota nelle
scienze sociali</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%; margin-bottom: 1.2em;">L’<em>open peer review</em>
(OPR) può essere applicata a tutte le tipologie di risultati della
ricerca, dagli articoli scientifici, alle proposte di progetto
fino ai dataset. Tuttavia, a partire dalla sua definizione, vanno
ancora analizzati i criteri e modalità per assicurare una
valutazione trasparente ed efficace per il progresso della ricerca
scientifica. Ciò si inquadra nell’ambito dell’Open Science che
coglie l’esigenza di analizzare le trasformazioni strutturali e
tecnologiche nel sistema della comunicazione scientifica odierna.
E’ proprio in tale contesto che i principi di Merton – in
particolare quelli di communality e organized skepticism –
diventano importanti punti di riferimento.<br>
Questo studio ha lo scopo di analizzare l’applicabilità della
revisione paritaria aperta dei dati della ricerca prodotti nelle
discipline afferenti alle scienze sociali. Lo studio inserisce nel
progetto europeo <a href="http://openup-h2020.eu/"
target="_blank" rel="noopener">OpenUP</a> (OPENing UP new
methods, indicators and tools for peer review, dissemination of
research results, and impact measurement), che intende analizzare
le trasformazioni nell’attuale scenario della ricerca scientifica
allo scopo di 1) identificare meccanismi, processi e strumenti
innovativi per la peer review applicata a tutti i risultati della
ricerca (pubblicazioni, software e dati), 2) esplorare i
meccanismi della disseminazione innovativa efficaci per le
imprese, l’industria, il settore educativo e la società nel suo
insieme e 3) analizzare un insieme di nuovi indicatori (altmetric)
che valutano l’impatto dei risultati della ricerca collegandoli ai
canali per la disseminazione.<br>
OpenUp utilizza una metodologia centrata sull’utente. Questo
approccio metodologico non solo coinvolge tutti gli stakeholder
(ricercatori, case editrici, enti che finanziano la ricerca,
istituzioni, industria e il pubblico in generale) in una serie di
workshops, conferenze e corsi di formazione, ma vuole testare i
risultati acquisiti in un set di studi pilota. Questi ultimi sono
collegati ai tre pilastri del progetto (revisione paritaria,
disseminazione innovativa dei risultati e altmetric) e sono
applicati ad alcune comunità e settori della ricerca specifici:
scienze umane, scienze sociali, energia e scienze della vita.<br>
Nello specifico il lavoro presentato intende descrivere la
metodologia usata per sviluppare lo studio pilota sull’OPR dei
dati nelle scienze sociali. In particolare si concentra sulla
prima fase che intende ricostruire il contesto generale della
diffusione e condivisione dei dati. Sulla base di questa analisi,
saranno identificati i criteri di selezione della comunità da
coinvolgere nello studio pilota, insieme alle caratteristiche e
alle problematiche specifiche che verranno successivamente
indagate durante il suo svolgimento. L’analisi prende in
considerazione sia la prospettiva di coloro che forniscono i dati
sia quella degli utenti che li utilizzano. Essa si pone nella
prospettiva di considerare i principi Mertoniani ed in particolare
le problematiche legate alla loro applicabilità nella condivisione
e valutazione dei dati della ricerca.</p>
<p style="text-align: justify;"><a
href="https://www.lider-lab.sssup.it/lider/en/persona/silvia-scalzini"
target="_blank" rel="noopener">Silvia Scalzini</a> (LUISS Guido
Carli, Lider Lab – Dirpolis Scuola Superiore Sant’Anna)<br>
<strong><i>A chi appartengono le mie idee? Un itinerario tra
diritto ed etica attorno al concetto di ‘scientific
authorship’ nell’era della scienza aperta</i></strong></p>
<p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
line-height: 99%; margin-bottom: 1.2em;">Un lavoro scientifico, a
qualunque branca del sapere appartenga, è il frutto di intuizione,
dedizione e della costruzione di una profonda conoscenza
dell’argomento. Uno dei problemi più spinosi è la corretta
attribuzione di un lavoro scientifico a colui o coloro che lo
hanno posto in essere. Tale difficoltà deriva da una serie di
fattori. Anzitutto un lavoro scientifico non si limita
all’articolo finale, ma comprende misurazioni, sperimentazioni,
scambi di idee, codici e così via, elementi non facilmente
scomponibili ed attribuibili ai vari “autori”. Altre volte, la non
corretta attribuzione di un lavoro deriva da condotte scorrette
poste in essere dai ricercatori. Tali condotte si collocano in uno
spettro di mutevole gravità, che va dal plagio ad “appropriazioni”
sempre più sfumate. Per citare alcuni esempi estremi, sono diffusi
i casi in cui il lavoro di giovani ricercatori non viene
riconosciuto e la paternità è usurpata. Sono noti anche casi in
cui l’ordine dei nomi degli autori in un <em>paper</em>
scientifico è deciso arbitrariamente, in assenza di coercibilità
della condotta. E l’elenco potrebbe continuare con la descrizione
della morfologia di vecchie e nuove attività che si pongono più o
meno nitidamente in esso, e che sono esacerbate dall’attuale
contesto del “publish or perish”.<br>
La disciplina sul diritto d’autore protegge l’espressione
dell’idea e non l’idea in sé. L’opera dell’ingegno, inoltre, per
essere suscettibile di protezione dovrà superare la soglia del
“carattere creativo”. I canoni del diritto d’autore non sono,
quindi, spesso in grado di regolare “i debiti di idee degli
scienziati” (M. Bertani, <em>Diritto d’autore e connessi</em>, in
L.C. Ubertazzi (a cura di), <em>La Proprietà Intellettuale</em>,
Giappichelli, 2011, p. 276), anche per motivi legati a esigenze di
certezza del diritto e di effettività della tutela. In certi casi
sono le stesse comunità scientifiche ad autoregolarsi, attraverso
l’adozione di norme sociali – ad esempio in materia di ordine dei
nomi nelle pubblicazioni – e di codici di condotta, come quelli –
sempre più raffinati – in materia di integrità nella ricerca, che
mirano ad indicare i – ed educare ai – “principi ed ai valori
etici, dei doveri deontologici e degli standard professionali sui
quali si fonda una condotta responsabile e corretta da parte di
chi svolge, finanzia o valuta la ricerca scientifica nonché da
parte delle istituzioni che la promuovono e la realizzano” (<em>Linee
Guida per l’integrità nella ricerca</em>, elaborate nell’ambito
delle attività della Commissione per l’Etica della Ricerca e la
Bioetica del Consiglio Nazionale delle Ricerche (CNR)). La scienza
aperta, inoltre, può agevolare la corretta attribuzione di un
lavoro, in quanto la diffusione di un’idea ad una vasta comunità
scientifica dovrebbe sancirne pubblicamente la priorità. Labili
sono, tuttavia, ancora i confini del concetto di attribuzione
scientifica ed incerto il perimetro delle condotte illecite e
scorrette che vi si associano, nonché del limite tra il
fisiologico evolversi della scienza ed il suo carattere
patologico.<br>
Il presente lavoro intende, dunque, illustrare una riflessione in
corso sull’intersezione e la sovrapposizione di nozioni ed
interpretazioni che ruotano attorno al concetto di “attribuzione
scientifica” a cavallo tra le varie categorie del diritto e
dell’etica.</p>
<p>Moderatore: <strong><a
href="http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=14271&pTab=1"
target="_blank" rel="noopener">Marco Pedrazzi</a></strong>
(presidente del <a href="http://www.unimi.it/ateneo/20184.htm"
target="_blank" rel="noopener">Comitato etico dell’Università di
Milano</a>)</p>
<pre class="moz-signature" cols="72">--
Paola Gargiulo
OpenAIRE NOAD- National Open Access Desk-Italia
CINECA, Interuniversity Consortium for ICT & HPC
Via R. Sanzio 4, I-20090 Segrate MI, Italy
<a class="moz-txt-link-abbreviated" href="mailto:email:p.gargiulo@cineca.it">email:p.gargiulo@cineca.it</a>
phone +39 02 26995-218
mobile + 39 328 9507 128
skype paolafoca</pre>
</body>
</html>