<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p>La prossima settimana si terrà a Milano presso l'Università
      Statale di Milano il 9 e 10 novembre il convegno organizzato da
      AISA - l'Associazione italiana per la promozione della Scienza
      Aperta sul tema dell'integrità della ricerca e di scienza aperta.<br>
    </p>
    <p> Il pomeriggio del 9 novembre sarà dedicato agli interventi dei
      quattro relatori invitati, esperti italiani ad altissimo livello,
      mentre la mattinata del 10 offrirà spazio alla presentazione di
      quattro risposte alla <a
        href="http://aisa.sp.unipi.it/attivita/cfpIII"><em>call for
          papers</em></a> del maggio 2017.</p>
    <p><a class="moz-txt-link-freetext"
        href="http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/programma/">http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/programma/</a></p>
    <p>Per iscriversi</p>
    <p><a class="moz-txt-link-freetext"
href="http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/registrazione/">http://aisa.sp.unipi.it/attivita/iii-convegno-annuale/registrazione/</a></p>
    <p>Cordiali saluti,</p>
    <p>Paola</p>
    <p>___________________________________________________________________________________________________<br>
      <i> </i></p>
    <p><i>AISA Convegno III - Scienza Aperta e integrità della ricerca<br>
      </i></p>
    <p><i>9 novembre 2017</i> </p>
    <p style="text-align: justify; margin-top: 1em;">aula 113 <a
        href="http://www.unimi.it/17183.htm" target="_blank"
        rel="noopener">via Festa del Perdono 7</a></p>
    <p style="text-align: justify; margin-top: 1em;">ore 15-19</p>
    <p style="text-align: justify; margin-top: 1.3em;"><a
href="http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=12441&pTab=1"
        target="_blank" rel="noopener">Emilia Perassi</a> (Università di
      Milano, delegata per l’Open Access), <a
        href="http://orcid.org/0000-0003-1410-1307" target="_blank"
        rel="noopener">Paola Galimberti</a> (consigliera AISA,
      Università di Milano), <a
        href="https://people.unipi.it/mariachiara_pievatolo/"
        target="_blank" rel="noopener">Maria Chiara Pievatolo</a>
      (vice-presidente AISA, Università di Pisa),  <em>Apertura dei
        lavori</em></p>
    <p style="text-align: justify; margin-top: 1.3em;"><a
        href="https://albertobaccini.wordpress.com/cv/" target="_blank"
        rel="noopener">Alberto Baccini</a> (Università di Siena) <a
        href="http://sisdin.unipv.it/labsisdin/people/dengiu/dengiu.php"
        target="_blank" rel="noopener">Giuseppe De Nicolao</a>
      (Università di Pavia)<br>
      <strong><i>ANVUR: i dati chiusi della bibliometria di stato</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%; margin-bottom: 1.2em;">L’Italia è probabilmente
      il paese del mondo occidentale dove l’ossessione per le etichette
      d’eccellenza sta modificando più profondamente i comportamenti dei
      ricercatori e delle istituzioni. Con l’esercizio di valutazione
      massiva della ricerca denominato VQR, si è inaugurata una fase di
      crescente controllo centralizzato, realizzato attraverso
      dispositivi apparentemente tecnici. Il tentativo di dare una
      giustificazione scientifica ai metodi di valutazione adottati
      nella valutazione ha generato un inedito conflitto tra dimensione
      politica, scientifica ed etica della ricerca. In questo
      contributo, l’attenzione è focalizzata sull’esperimento condotto e
      analizzato dall’Agenzia italiana per la valutazione della ricerca
      (ANVUR) per validare la metodologia adottata per la valutazione.
      Se ne descrive dettagliatamente la strategia di diffusione da
      parte dell’agenzia, con la pubblicazione di estratti dei rapporti
      ufficiali in <em>working papers</em> di diverse istituzioni,
      riviste accademiche e blog gestiti da <em>think-tank</em>. E si
      illustra un inedito conflitto di interessi: la metodologia e i
      risultati della valutazione della ricerca nazionale sono stati
      giustificati a posteriori con documenti scritti dagli stessi
      studiosi che hanno sviluppato e applicato la metodologia
      ufficialmente adottata dal governo italiano. Inoltre, i risultati
      pubblicati in questi articoli non sono replicabili, dal momento
      che i dati non sono mai stati resi disponibili a studiosi diversi
      da quelli che collaborano con ANVUR.</p>
    <p style="text-align: justify;"><a
        href="https://law.ucdavis.edu/faculty/biagioli/" target="_blank"
        rel="noopener">Mario Biagioli</a> (Center for Science &
      Innovation Studies – UC Davis)<br>
      <strong><em>Metrics and misconduct: redefining “publication” and
          “evaluation”</em></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%; margin-bottom: 1.2em;">Tradizionalmente, la
      frode scientifica e accademica è stata legata alla mentalità
      “publish or perish” e, più recentemente, alle nuove possibilità
      offerte dalle tecnologie di pubblicazione digitale. Voglio
      suggerire, invece, che oggi la frode sta attraversando una fase di
      profonda trasformazione, adattandosi ai nuovi regimi di
      valutazione basati su indici quantitativi, ed ai nuovi incentivi a
      loro associati. Questi sviluppi stanno influenzando sia la pratica
      che il concetto di frode. La definizione tradizionale di frode era
      radicata sull’opposizione fra verità e falsità, giusto e
      sbagliato, errore onesto e manipolazione intenzionale. Invece,
      alcune delle nuove forme di frode connesse e incentivate dai
      regimi quantitativi di valutazione accademica sembrano più vicine
      a pratiche di “gaming” che a chiare violazioni di norme etiche o
      legali. Queste nuove forme di frode ci spingono quindi a
      ridefinire la frode ma, allo stesso tempo, ci chiedono anche di
      ripensare sia il concetto di pubblicazione che di quello
      d’impatto.</p>
    <p style="text-align: justify;"><a
        href="http://www.scienzainrete.it/taxonomy/term/1471"
        target="_blank" rel="noopener">Enrico Bucci</a> (Sbarro Health
      Research Organization – Temple University, Philadelphia; Resis Srl
      – Ivrea)<br>
      <strong><i>Metriche bibliometriche ed effetti distorsivi su etica
          e produzione scientifica</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%; margin-bottom: 1.2em;">La tendenza attuale ad
      inquadrare la ricerca scientifica di qualunque ambito come
      un’attività fortemente competitiva per i fondi e per l’avanzamento
      professionale è giustificata con l’argomentazione che, in presenza
      di un finanziamento pubblico limitato, le istituzioni che
      rappresentano il cittadino devono poter effettuare una scelta
      quanto più oculata possibile degli enti e dei ricercatori
      destinatari del denaro pubblico.<br>
      Sebbene questa argomentazione possa essere condivisibile, essa
      costituisce il punto di partenza per la creazione di un meccanismo
      che in realtà tradisce proprio lo scopo che si intende
      raggiungere, quello cioè di identificare la migliore ricerca ed i
      migliori ricercatori e di garantire il miglior ritorno possibile
      all’investimento del cittadino. Trascurando infatti di
      approfondire cosa si intende per migliori scienziati e per scienza
      più promettente, è facile dimostrare come le politiche
      concretamente messe in atto, tutte poggiate sull’uso distorto e in
      taluni casi assolutamente infondato di metriche bibliometriche più
      o meno complesse, soprattutto quando tali politiche si
      accompagnano ad una eccessiva concentrazione di fondi su pochi
      istituti e ricercatori “di eccellenza”, producono di fatto una
      profonda distorsione nelle finalità stesse della ricerca
      scientifica ed in ultima analisi portano ad un’esponenziale
      crescita di pubblicazioni manipolate e false. Poiché queste sono a
      loro volta utilizzate tal quali per la valutazione della ricerca,
      si genera un pericoloso meccanismo a <em>feedback</em> positivo,
      con il catastrofico risultato finale che si può prevedere, per cui
      tutte le risorse finiscono per essere allocate nella peggiore
      ricerca.</p>
    <p style="text-align: justify;"><a
        href="http://www.di.ens.fr/users/longo/" target="_blank"
        rel="noopener">Giuseppe Longo</a> (Centre Cavaillès, CNRS, Ecole
      Normale Supérieure, Paris; Department of Integrative Physiology
      and Pathobiology, Tufts University School of Medicine, Boston)<br>
      <strong><i>Scienza e senso: deformazioni scientiste del rapporto
          al reale</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%; margin-bottom: 1.2em;">Una nuova correlazione
      sembra stabilirsi fra strumenti di valutazione e «scientismo». Da
      una parte, tecniche bibliometriche rendono difficile quel che in
      scienza più conta: lo spirito critico, l’idea veramente originale,
      l’apertura di nuovi spazi di senso, necessariamente non
      con-sensuali. Dall’altra, sempre più si fa credere che la scienza
      coincida con l’occupazione progressiva e completa del reale con
      gli strumenti che già si hanno. Così «metodi di ottimizzazione»,
      originari e pertinenti in teorie fisico-matematiche del XIX
      secolo, pretendono di governare l’economia all’equilibrio,
      individuare l’ottimalità di traiettorie filogenetiche ed
      ontogenetiche in biologia, guidare il «deep learning» sui Big
      Data. Promesse mirabolanti (curare l’Alzheimer ed il Parkinson
      capendoli nel silicio, personalizzare la medicina grazie ad una
      perfetta conoscenza del DNA, prevedere senza capire grazie ai Big
      Data …) sono accompagnate dall’uso di strumenti ben consolidati o
      vetusti, a tutti comprensibili, di facile successo bibliometrico a
      breve termine e presentate con parole d’ordine allettanti (il
      percorso migliore, l’unico possibile, in economia, in biologia,
      … ; macchine per il «deep learning», con o senza «supervisione» e
      con «ricompense», che evocano un bambino Pavloviano che apprende).
      Le tante promesse garantiscono finanziamenti miliardari,
      definiscono i progetti di “eccellenza”; il dubbio scientifico,
      l’incertezza, il “risultato negativo”, la critica che esplora
      altri punti di vista, ne vengono esclusi. Così, progetti
      ricchissimi portano a valanghe di pubblicazioni e di citazioni, in
      giochi di rinvii reciproci; queste garantiscono nuovi
      finanziamenti.<br>
      Lo scientismo crede nel progresso cumulativo della scienza, lungo
      un’unica via possibile verso la verità, indicata ovviamente da chi
      detiene il “pacchetto di maggioranza”; le bibliometria è la misura
      e l’indicatore di tale progresso. Si metteranno infine in evidenza
      i legami stretti fra scienza e democrazia, fra scienza e
      costruzione storica di senso.</p>
    <p>Moderatore: <strong><a
          href="http://www.lawtech.jus.unitn.it/index.php/people/roberto-caso"
          target="_blank" rel="noopener">Roberto Caso</a> </strong>(presidente
      AISA, università di Trento)</p>
    <p style="text-align: justify; margin-top: 1.6em;"><i>10 novembre
        2017</i></p>
    <p style="text-align: justify; margin-top: 1em;">Sala Napoleonica <a
        href="http://www.unimi.it/17183.htm" target="_blank"
        rel="noopener">via Sant’Antonio 12</a></p>
    <p style="text-align: justify; margin-top: 1em;">ore 9-13</p>
    <p style="text-align: justify; margin-top: 1.3em;"><a
        href="https://www.unito.it/persone/mcassell" target="_blank"
        rel="noopener">Maria Cassella</a> (Università di Torino)<br>
      <strong><i>Strumenti e pratiche per l’open science: l’open peer
          review tra opportunità e (qualche) perplessità</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%;">L’intervento si propone di offrire una prima
      riflessione sulle pratiche dell’open peer review, un termine
      cappello che racchiude diverse modalità alternative di revisione
      “aperta” tra pari.<br>
      Ford (2013), ad esempio ne cita otto, mentre Hellauer (2016) ne
      individua sette diverse tipologie.<br>
      L’<em>open peer review</em> migliora il processo di revisione
      rendendolo più aperto e trasparente. Il contributo cerca,
      tuttavia, di rispondere a due temi cruciali per il futuro
      dell’open peer review:</p>
    <ol>
      <li style="text-align: justify; font-size: 0.9em; line-height:
        99%;">come raccogliere una massa critica di contributi che siano
        scientificamente rilevanti;</li>
      <li style="text-align: justify; font-size: 0.9em; line-height:
        99%;">se l’<em>open peer review</em> possa dirsi
        qualitativamente superiore al sistema di revisione più
        tradizionale (<em>single blind</em> o <em>double blind</em> che
        sia).</li>
    </ol>
    <p style="text-align: justify; font-size: 0.9em; line-height: 99%;
      margin-bottom: 1.2em;">Rispetto al primo problema l’autore propone
      come forma ottimale di opr non quella dell’<em>open crowd review</em>
      (<em>open participation</em>) che può essere utilizzata
      post-pubblicazione per raccogliere eventuali commenti e
      suggerimenti ma quella basata sull’invito a partecipare al
      dibattito rivolto ad una cerchia selezionata di revisori.Le
      diverse forme di opr non sono, infatti, neutrali rispetto alle
      comunità, ai gruppi di ricerca alle tipologie (monografia o
      articolo) e alle modalità di pubblicazione (piattaforma o
      rivista). Rispetto al secondo problema alcuni studi dimostrano la
      superiore valenza qualitativa dell’opr: Bormann (2011) e Maria K.
      Kowalczuk, et al. (2015).<br>
      L’adozione dell’opr nella comunicazione scientifica richiede un
      cambio di paradigma. La tecnologia e la scienza aperta stanno
      favorendo la diffusione di diverse forme di opr. Grazie alla
      revisione partitaria aperta la peer review riacquista il valore di
      servizio per le comunità di ricerca e si esalta il dialogo tra
      scienziati e tra discipline diverse. “Somewhere along the way in
      education, we forgot that peer review is a conversation. The
      peer-review process reminds us of those human connections.”(Brito
      et al. 2014). Rispetto al nesso con le norme mertoniane della
      scienza l’opr facilita e velocizza il riconoscimento pubblico del
      lavoro del ricercatore. Aggiunge al riconoscimento per il lavoro
      di ricerca anche il riconoscimento del lavoro dei revisori. Al
      tempo stesso rispetta il valore mertoniano del comunismo. Nel
      mondo dell’open science le norme mertoniane della scienza
      riprendono vigore, anche se restano imperfette.</p>
    <p style="text-align: justify;"><a href="http://diegogiorio.com/"
        target="_blank" rel="noopener">Diego Giorio</a> (Comune di
      Villanova Canavese – SEPEL Editrice)<br>
      <strong><i>Gli open data pubblici a supporto e validazione della
          ricerca</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%;">Nell’era dell’informazione, l’immenso
      patrimonio di dati detenuti negli uffici pubblici, può essere
      messo a disposizione di tutti: cittadini, studiosi, altre entità
      pubbliche e di ricerca. Dati demografici, nascite, morti con
      relative cause, rilievi topografici, cataloghi di musei e
      biblioteche, elementi sulle attività industriali ed artigianali,
      flussi di traffico… Solo per citare i primi esempi che vengono in
      mente di una lista quasi infinita.<br>
      Le norme già ci sono, la diffusione dei dati stenta però a
      decollare per tanti motivi, dalla penuria di tempo e di personale
      negli uffici, alla scarsa attitudine mentale degli impiegati, agli
      applicativi software non ancora adeguati. Con opportune campagne
      di informazione, e con l’auspicabile svecchiamento della PA, non
      si tratta tuttavia di un problema insormontabile.<br>
      Un secondo problema da non sottovalutare è l’anonimizzazione dei
      dati, che devono essere resi disponibili in forma sufficientemente
      dettagliata da essere utili e fruibili, ma abbastanza aggregata da
      non poter risalire all’interessato neppure per via indiretta,
      questione piuttosto scivolosa nell’era dei big data. Questo
      rischio si accentua per la peculiarità del territorio italiano,
      diviso in quasi 8000 Comuni anche molto piccoli.<br>
      Assumendo comunque che i dati siano disponibili e correttamente
      gestiti, l’effetto non può che essere positivo per i ricercatori e
      per chi deve verificare il loro lavoro. Inoltre, poiché non sempre
      i dati in possesso della PA sono corretti e completi, potrebbe
      verificarsi anche il percorso inverso, ovvero la correzione di
      errori ed anomalie rilevate nel corso della ricerca.<br>
      Insomma, un circolo virtuoso che non è facile innescare ma che,
      una volta messo in moto, non può che portare benefici a tutta la
      società.</p>
    <p style="text-align: justify;"><a
        href="http://www.irpps.cnr.it/it/chi-siamo/personale/daniela-luzi"
        target="_blank" rel="noopener">Daniela Luzi</a>, <a
        href="mailto:r.ruggieri@irpps.cnr.it" target="_blank"
        rel="noopener">Roberta Ruggieri</a>, <a
        href="http://www.irpps.cnr.it/it/chi-siamo/personale/lucio-pisacane"
        target="_blank" rel="noopener">Lucio Pisacane</a>, <a
        href="http://www.irpps.cnr.it/it/chi-siamo/personale/rosa-di-cesare"
        target="_blank" rel="noopener">Rosa Di Cesare</a> (CNR –
      Istituto di Ricerche sulla Popolazione e le Politiche Sociali,
      Roma)<br>
      <strong><i>Open peer review dei dati: uno studio pilota nelle
          scienze sociali</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%; margin-bottom: 1.2em;">L’<em>open peer review</em>
      (OPR) può essere applicata a tutte le tipologie di risultati della
      ricerca, dagli articoli scientifici, alle proposte di progetto
      fino ai dataset. Tuttavia, a partire dalla sua definizione, vanno
      ancora analizzati i criteri e modalità per assicurare una
      valutazione trasparente ed efficace per il progresso della ricerca
      scientifica. Ciò si inquadra nell’ambito dell’Open Science che
      coglie l’esigenza di analizzare le trasformazioni strutturali e
      tecnologiche nel sistema della comunicazione scientifica odierna.
      E’ proprio in tale contesto che i principi di Merton – in
      particolare quelli di communality e organized skepticism –
      diventano importanti punti di riferimento.<br>
      Questo studio ha lo scopo di analizzare l’applicabilità della
      revisione paritaria aperta dei dati della ricerca prodotti nelle
      discipline afferenti alle scienze sociali. Lo studio inserisce nel
      progetto europeo <a href="http://openup-h2020.eu/"
        target="_blank" rel="noopener">OpenUP</a> (OPENing UP new
      methods, indicators and tools for peer review, dissemination of
      research results, and impact measurement), che intende analizzare
      le trasformazioni nell’attuale scenario della ricerca scientifica
      allo scopo di 1) identificare meccanismi, processi e strumenti
      innovativi per la peer review applicata a tutti i risultati della
      ricerca (pubblicazioni, software e dati), 2) esplorare i
      meccanismi della disseminazione innovativa efficaci per le
      imprese, l’industria, il settore educativo e la società nel suo
      insieme e 3) analizzare un insieme di nuovi indicatori (altmetric)
      che valutano l’impatto dei risultati della ricerca collegandoli ai
      canali per la disseminazione.<br>
      OpenUp utilizza una metodologia centrata sull’utente. Questo
      approccio metodologico non solo coinvolge tutti gli stakeholder
      (ricercatori, case editrici, enti che finanziano la ricerca,
      istituzioni, industria e il pubblico in generale) in una serie di
      workshops, conferenze e corsi di formazione, ma vuole testare i
      risultati acquisiti in un set di studi pilota. Questi ultimi sono
      collegati ai tre pilastri del progetto (revisione paritaria,
      disseminazione innovativa dei risultati e altmetric) e sono
      applicati ad alcune comunità e settori della ricerca specifici:
      scienze umane, scienze sociali, energia e scienze della vita.<br>
      Nello specifico il lavoro presentato intende descrivere la
      metodologia usata per sviluppare lo studio pilota sull’OPR dei
      dati nelle scienze sociali. In particolare si concentra sulla
      prima fase che intende ricostruire il contesto generale della
      diffusione e condivisione dei dati. Sulla base di questa analisi,
      saranno identificati i criteri di selezione della comunità da
      coinvolgere nello studio pilota, insieme alle caratteristiche e
      alle problematiche specifiche che verranno successivamente
      indagate durante il suo svolgimento. L’analisi prende in
      considerazione sia la prospettiva di coloro che forniscono i dati
      sia quella degli utenti che li utilizzano. Essa si pone nella
      prospettiva di considerare i principi Mertoniani ed in particolare
      le problematiche legate alla loro applicabilità nella condivisione
      e valutazione dei dati della ricerca.</p>
    <p style="text-align: justify;"><a
        href="https://www.lider-lab.sssup.it/lider/en/persona/silvia-scalzini"
        target="_blank" rel="noopener">Silvia Scalzini</a> (LUISS Guido
      Carli, Lider Lab – Dirpolis Scuola Superiore Sant’Anna)<br>
      <strong><i>A chi appartengono le mie idee? Un itinerario tra
          diritto ed etica attorno al concetto di ‘scientific
          authorship’ nell’era della scienza aperta</i></strong></p>
    <p style="text-align: justify; margin-top: 0.2em; font-size: 0.9em;
      line-height: 99%; margin-bottom: 1.2em;">Un lavoro scientifico, a
      qualunque branca del sapere appartenga, è il frutto di intuizione,
      dedizione e della costruzione di una profonda conoscenza
      dell’argomento. Uno dei problemi più spinosi è la corretta
      attribuzione di un lavoro scientifico a colui o coloro che lo
      hanno posto in essere. Tale difficoltà deriva da una serie di
      fattori. Anzitutto un lavoro scientifico non si limita
      all’articolo finale, ma comprende misurazioni, sperimentazioni,
      scambi di idee, codici e così via, elementi non facilmente
      scomponibili ed attribuibili ai vari “autori”. Altre volte, la non
      corretta attribuzione di un lavoro deriva da condotte scorrette
      poste in essere dai ricercatori. Tali condotte si collocano in uno
      spettro di mutevole gravità, che va dal plagio ad “appropriazioni”
      sempre più sfumate. Per citare alcuni esempi estremi, sono diffusi
      i casi in cui il lavoro di giovani ricercatori non viene
      riconosciuto e la paternità è usurpata. Sono noti anche casi in
      cui l’ordine dei nomi degli autori in un <em>paper</em>
      scientifico è deciso arbitrariamente, in assenza di coercibilità
      della condotta. E l’elenco potrebbe continuare con la descrizione
      della morfologia di vecchie e nuove attività che si pongono più o
      meno nitidamente in esso, e che sono esacerbate dall’attuale
      contesto del “publish or perish”.<br>
      La disciplina sul diritto d’autore protegge l’espressione
      dell’idea e non l’idea in sé. L’opera dell’ingegno, inoltre, per
      essere suscettibile di protezione dovrà superare la soglia del
      “carattere creativo”. I canoni del diritto d’autore non sono,
      quindi, spesso in grado di regolare “i debiti di idee degli
      scienziati” (M. Bertani, <em>Diritto d’autore e connessi</em>, in
      L.C. Ubertazzi (a cura di), <em>La Proprietà Intellettuale</em>,
      Giappichelli, 2011, p. 276), anche per motivi legati a esigenze di
      certezza del diritto e di effettività della tutela. In certi casi
      sono le stesse comunità scientifiche ad autoregolarsi, attraverso
      l’adozione di norme sociali – ad esempio in materia di ordine dei
      nomi nelle pubblicazioni – e di codici di condotta, come quelli –
      sempre più raffinati – in materia di integrità nella ricerca, che
      mirano ad indicare i – ed educare ai – “principi ed ai valori
      etici, dei doveri deontologici e degli standard professionali sui
      quali si fonda una condotta responsabile e corretta da parte di
      chi svolge, finanzia o valuta la ricerca scientifica nonché da
      parte delle istituzioni che la promuovono e la realizzano” (<em>Linee
        Guida per l’integrità nella ricerca</em>, elaborate nell’ambito
      delle attività della Commissione per l’Etica della Ricerca e la
      Bioetica del Consiglio Nazionale delle Ricerche (CNR)). La scienza
      aperta, inoltre, può agevolare la corretta attribuzione di un
      lavoro, in quanto la diffusione di un’idea ad una vasta comunità
      scientifica dovrebbe sancirne pubblicamente la priorità. Labili
      sono, tuttavia, ancora i confini del concetto di attribuzione
      scientifica ed incerto il perimetro delle condotte illecite e
      scorrette che vi si associano, nonché del limite tra il
      fisiologico evolversi della scienza ed il suo carattere
      patologico.<br>
      Il presente lavoro intende, dunque, illustrare una riflessione in
      corso sull’intersezione e la sovrapposizione di nozioni ed
      interpretazioni che ruotano attorno al concetto di “attribuzione
      scientifica” a cavallo tra le varie categorie del diritto e
      dell’etica.</p>
    <p>Moderatore: <strong><a
href="http://www.unimi.it/chiedove/schedaPersonaXML.jsp?matricola=14271&pTab=1"
          target="_blank" rel="noopener">Marco Pedrazzi</a></strong>
      (presidente del <a href="http://www.unimi.it/ateneo/20184.htm"
        target="_blank" rel="noopener">Comitato etico dell’Università di
        Milano</a>)</p>
    <pre class="moz-signature" cols="72">-- 
Paola Gargiulo
OpenAIRE NOAD- National Open Access Desk-Italia 
CINECA, Interuniversity Consortium for ICT & HPC 
Via R. Sanzio 4, I-20090 Segrate MI, Italy
<a class="moz-txt-link-abbreviated" href="mailto:email:p.gargiulo@cineca.it">email:p.gargiulo@cineca.it</a>
phone +39 02 26995-218
mobile + 39 328 9507 128
skype paolafoca</pre>
  </body>
</html>