RASSEGNA 15 FEBBRAIO 2009 SEGRE:LA QUANTITÀ NON È UN CRITERIO PER VALUTARE IL MERITO - ALLARME UNIVERSITÀ FUGGONO LE MATRICOLE - UNIVERSITÀ, L'ITALIA RETROCEDE NELLA TOP 200 UN SOLO ATENEO - UNIVERSITÀ MODELLO IKEA - CALZOLARI: SENZA FONDI IL FUTURO É NERO E SPARIREMO DALLA GRADUATORIA - ATENEI, PER I MIGLIORI PROF STA ARRIVANDO IL BONUS - ATENEI, SALGONO STIPENDI E PENSIONI - LEGGE SULLA RICERCA, PROGETTO INCOMPIUTO - PROF, SCATTA LA SELEZIONE PREVENTIVA - NIENTE PIÙ FONDI PER I CORSI DI RECUPERO LE SCUOLE NEL CAOS - SCUOLA E ATENEI RIPARTE LA PROTESTA CONTRO I TAGLI GELMINI-TREMONTI - ACCORDO GOOGLE E NASA PER UNIVERSITÀ DI NUOVA GENERAZIONE - INNOVAZIONE, ITALIA LONTANA DAI LEADER UE - E I GENI HANNO CACCIATO LO SPIRITO DALLA LETTERATURA - LE SCIMMIE CHE SCANDALO! - ROSSO O BLU, COSÌ REAGISCE LA MENTE - FURBETTI DELLE BORSE STUDIO QUASI IL 5% DICHIARA IL FALSO - WEB PARLA BENE DI ME - VENTIMILA LEGHE SOTTO I GHIACCI - QUI TERRA: PUNTO DI NON RITORNO - IL BELLO DELL'INSTABILITÀ - IL DONO DELLA RICERCA - ======================================================= IL BLUFF DEI VACCINI PROMOSSI DALLE RIVISTE - IL MEDICO CHE FA L'ARCHEOLOGO DEI TUMORI - TRUFFE MILIARDARIE E GESTIONE ALLEGRA DERUBANO IL SSN - SOGEI POTENZIERÀ I CONTROLLI SULLA SPESA PUBBLICA SANITARIA - RICETTE SOLO ONLINE ENTRO IL 2010 - INGHILTERRA LA CRISI «CHIUDE» GLI OSPEDALI - LISTE DG: PER L'ACCESSO BASTA L'ESPERIENZA - LA DISTRIBUZIONE DIRETTA FA «BASSO GRADIMENTO» - SALVAVITA IN SALA OPERATORIA - CHECK-LIST ALL'ITALIANA - FRANCIA: OLTRE METÀ DEGLI INTERVENTI È IN DAY HOSPITAL - PIÚ STRESS E MALATTIE PER CHI LAVORA IN OPEN-SPACE - NEI MISTERI DEL MIDOLLO OSSEO - LA PILLOLA DIVENTA HI-TECH - LA VITA? UN ACIDO L'HA ACCESA - IL NOBEL CAMILLO GOLGI E IL CASO DELLA NOBILDONNA - BANCA DEL DNA QUALI REGOLE - NUOVI STRUMENTI CONTRO LE NEOPLASIE MALIGNE - OSSIGENO: TERAPIA DEL FUTURO - CASSAZIONE TEST-HIV SOLO CON IL CONSENSO - UN ARBUSTO SARDO CONTRO LA LEISHMANIOSI - COLESTEROLO ALTO PER I SARDI - PRIVARSI DI UN RENE NON PEGGIORA LA VITA - ======================================================= ________________________________________________________________ Corriere della Sera 6 feb. ’09 LA QUANTITÀ NON È UN CRITERIO PER VALUTARE IL MERITO Università Il progetto di legare i finanziamenti per gli atenei alla produttività del personale docente Paradossi Uno studioso può essere il più citato di tutti nelle riviste, ma come esempio negativo Confusioni L' oggetto da giudicare non è un numero ma un prodotto della nostra intelligenza Uno dei gesti più nefasti della contestazione del ' 68 e seguenti fu il vilipendio della «meritocrazia». I più non furono convinti, è ovvio, ma rimase un certo scrupolo a esplicitare il rapporto tra una promozione o una nomina e i meriti di chi ne godeva. Ora, a parole, si vuole far dipendere finanziamenti e aumenti di stipendio dalla qualità o produttività dell' opera prestata da una persona o gruppo di persone. E si tende a definire dei criteri «oggettivi» per valutare i meriti. Facciamo una breve rassegna delle idee che si affermano, ormai quasi dappertutto, esemplificando sul settore dell' Università e della ricerca. Una è quella di quantificare la produttività scientifica del personale docente. Il Comitato Universitario Nazionale ha già formulato qualche proposta, per fortuna bloccata dal ministro dell' Istruzione, che però non si sa che progetti abbia. Nelle proposte del Cun s' indicavano i criteri minimi per l' ammissione degli studiosi ai concorsi universitari. Il principale si basa sul numero di monografie o di articoli pubblicati. Ma se si vuole tener conto, ed è inevitabile, del diverso operare dei ricercatori nei diversi campi di ricerca, si dovrà definire una fenomenologia così variegata da bloccare chi valuterà i candidati. Quantità e misura dei lavori scientifici variano persino secondo il tipo di ricerche: se una richiede elencazioni esaustive e descrizioni, un' altra può seguire una linea dimostrativa funzionale, se una può avvalersi di analisi formali, un' altra abbisognerà di statistiche, se in un caso sarà utile ripercorrere tutta la storia di un problema, in un altro si potrà puntare subito alle novità di metodo e di tecnica. E già in articoli giornalistici si è osservato che Einstein ha rivoluzionato la fisica con pochi decisivi articoli, mentre conosciamo tutti i poligrafi che sfornano due o tre volumi, inutili, all' anno. Un altro criterio di valutazione si trae (il procedimento è già applicato in molti Paesi, ma non ancora per gli ambiti umanistici, e si capirà subito perché) dalla classificazione degli organi (riviste, atti di congresso, miscellanee scientifiche) in cui ogni candidato ha reso pubblici i risultati delle sue ricerche. Se uno studioso pubblica prevalentemente su organi di categoria A, sarà da considerare superiore a chi scrive su organi di categoria B o C. Ed ecco allora elucubrazioni sui criteri di classificazione. Ma l' importanza, poniamo, di una rivista non si basa su dati formali, spesso secondari: si basa sulla sua storia, sulla competenza di chi l' ha diretta e la dirige, sull' autorità che si è conquistata. Tutti gli specialisti di una qualunque disciplina sanno indicarti con sicurezza gli organi più prestigiosi. D' altra parte, i ricercatori hanno anche il giusto desiderio di rendere presto pubblici i risultati raggiunti, per motivi sia di priorità, sia di carriera (vedi prima!). Se non trovano posto su un organo di categoria A (dove è facile finire in una lista d' attesa di due o più anni), accetteranno l' ospitalità di un organo di categoria B o C. E così le differenze tra categorie diventano molto sfumate. Né si può fondare la classifica sui tipi di organizzazione, abbastanza vari, delle riviste specialistiche. Molte oggi, per esempio, tendono a sfoggiare «comitati scientifici» ricchi di nomi di personalità nazionali e straniere. Posso assicurare per esperienza che si tratta di una pura esibizione: i membri di quei comitati non vengono praticamente mai consultati, sicché spesso si accetta di stare anche in decine di comitati, dove si fa soltanto mostra di sé sul frontispizio, naturalmente senza compenso. Chi decide sulle scelte sono e saranno sempre i direttori, e bisognerebbe giudicare il loro valore, ciò che pare escluso da questa impostazione. In questa rassegna di stupidità, va ricordato il cosiddetto «impact factor», cioè il numero di citazioni nei lavori scientifici dello studioso da valutare: l' autore più citato sarebbe il migliore. In queste valutazioni, ancora una volta, e significativamente, poco affermate nel campo umanistico, si può prevedere che gli scritti su temi d' attualità, o persino di moda, otterranno molte più citazioni di quelli su temi più raffinati o al momento poco battuti. Insomma, un invito alla banalità. Ma per arrivare al paradosso: uno studioso che, poniamo, è stato citato cento volte con giudizi negativi, passerà davanti a uno citato solo cinquanta volte con grandi lodi. Si dirà: ma i valutatori possono tener conto del tenore delle citazioni. No, perché in queste misurazioni vige il criterio numerico, non si entra nel merito. Eccoci al punto. La valutazione non può essere un calcolo, è un giudizio, di una persona precisa su un oggetto preciso. Il giudizio richiede competenza in chi giudica, e analisi scrupolosa dell' oggetto giudicato, che non è un numero, ma un prodotto dell' intelligenza. Il giudizio non sarà mai assoluto, non solo perché il giudice può sbagliare, ma anche perché può avere preconcetti, finalità extrascientifiche, eccetera. Ma il rimedio non sta nel cercare un' oggettività impossibile, sta nel rendere il giudizio pubblico, e perciò contestabile se fazioso, sta nel ricorrere ai giudizi di altri specialisti, magari mediante un dibattito. Ognuno mette in gioco la propria competenza. Ci sarebbe allora da domandarsi perché oggi, come risulta da questi tentativi di valutazione senza giudizio, si sia così incapaci di giudicare e renitenti all' essere giudicati, ma è un altro discorso. Segre Cesare _____________________________________________________ La Stampa 5 feb. ’09 ALLARME UNIVERSITÀ "FUGGONO LE MATRICOLE" I diploma perde fascino: non è più una garanzia per trovare il posto di lavoro subito e ben retribuito Sono sempre meno le famiglie grado di mantenere gli studi ai figli: e le «lauree brevi» non funzionano Che cosa accade nelle università? Nulla di buono si direbbe a giudicare dagli ultimi dati sugli iscritti diffusi dal Mini stero dell'Istruzione. A fine novembre del 2008 a decidere di affidare il proprio futuro ad un corso in un ateneo sono stati in 312.104, il 3,27 per cento in meno rispetto allo scorso anno, il calo più consistente degli ultimi sette anni. Negli ultimi quattro anni almeno cinquantamila diplomati hanno preferito il lavoro allo studio. L'università è in crisi, insomma. E ad essere in difficoltà sono soprattutto le statali perché nelle facoltà private il numero degli iscritti è rimasto più o meno invariato da un anno all'altro ed è addirittura aumentato in alcuni templi come la Bocconi (il5,1% in più) o la Luiss (il 14,7% in più). Il calo è ormai costante dal 2002 in poi, anno dell'introduzione della formula del 3+2, delle lauree brevi. E quindi se a luglio si sono diplomati in 470 mila e sono ogni anno di più i giovani che terminano gli istituti superiori sono sempre di meno quelli che scelgono di continuare gli studi all'università. Che cosa fanno? Vanno all'estero, cercano lavoro, forse nulla. A essersi persi per strada in questi anni sono un bel po' di ragazzi. Dopo una crisi nella prima metà degli anni Novanta, la propensione a proseguire gli studi era di nuovo aumentata dal 1999. Tanto per dare un'idea, nel 2001 i giovani passati dalla scuola all'università sono arrivati Al 72,7%. Quest'anno sono scesi a poco più del 66%. Il calo non è uguale in tutt'Italia né in tutte le facoltà o indirizzi di studio. In aumento gli iscritti nel Nord Ovest, (l’1,21%). Va male invece al Sud, dove il 6% in meno di giovani ha deciso di puntare alla laurea dopo il diploma. Siamo intorno Al3,91% nel Nord Est, dove Verona ha perso circa 600 iscritti (il 10,4%) e Padova oltre mille, il9,5% in meno. Non c'è da stare più allegri nella capitale degli universitari, Bologna, dove si sono persi il 3,5% di iscritti. In Veneto aumenta solo Venezia con il9,4% di Ca' Foscari e il 10,3% della Iuav. E in Emilia aumenta solo Parma con il 4,9% in più. Crollano le iscrizioni all'Università per stranieri di Perugia (il 38,6% in meno) e anche a Roma e nel Lazio non va granché bene. La Sapienza resta l'Ateneo più numeroso d'Italia (23.710 matricole) ma perde il 6,4% di iscritti: A Tor Vergata il calo è dell’8,3%lo e persino alla Lumsa, università privata e cattolica, le matricole sono il 13,6% in meno. Aumentano gli iscritti alle lauree scientifiche: sono soltanto il 3% del totale di chi decide di andare al l'università, ma aumentano dell’1,4%. I più numerosi restano gli iscritti in Scienze dell'economia e della gestione aziendale con i112% di immatricolati ma sono lo 0.3% in meno rispetto allo scorso anno. AI secondo posto le matricole di Giurisprudenza che calano del 2%. Sono in aumento, invece, corsi di studi più tecnici che rientrano nella fascia dell’«Ingegneria industriale» o delle «Professioni sanitarie». Che cosa accade allora nelle università? «C'è una forte crisi - spiega Mimmo Pantaleo, segretario generale della Flc-Cgil -. Non rappresenta Crollo continuo: 50 mila iscrizioni in meno negli ultimi quattro anni no più uno sbocco verso un mercato del lavoro in grado di soddisfare in termini di competenze. Sempre più giovani la vedono come qualcosa di inutile e preferiscono orientarsi verso qualcos'altro. A incidere in termini negativi è anche la crisi economica. Sono sempre di meno le famiglie in grado di permettersi di mantenere un figlio per un certo numero di anni agli studi universitari. Sarebbe necessario un profondo processo di riforma e di sicuro i tagli previsti dal ministro Gelmini renderanno anche più profonda la crisi degli atenei». Daniele Checchi, professore di Economia politica alla Statale di Milano, spiega il calo andando indietro nel tempo fino Al2002, quando furono introdotte le lauree brevi. «Quell’anno i tassi di immatricolazione erano cresciuti moltissimo. Rendendo più breve la durata dei corsi, in tanti avevano pensato di poter riuscire a laurearsi. Con il passare degli anni, invece, si è capito che non era così facile come si credeva e quindi il numero degli iscritti è costantemente andato diminuendo. C'è anche un effetto dovuto alla crisi economica, gli incentivi previsti dal ministro Gelmini avranno effetto solo a partire dal prossimo anno». All'Istat avevano previsto il calo già alla fine dello scorso anno scolastico. Ma immaginavano una diminuzione ancora più consistente, intorno Al5% circa. «Dopo una stagione di forte crescita delle immatricolazioni, dopo la riforma del 2002 la perdita è stata lieve ma costante. E' la disillusione o fenomeno che ha coinvolto maggiormente gli studenti italiani rispetto all'università», spiega Paola Ungaro, responsabile del settore istruzione dell'Istat www.lastampa.it/amabile _____________________________________________________ Repubblica 14 feb. ’09 UNIVERSITÀ, L'ITALIA RETROCEDE NELLA TOP 200 UN SOLO ATENEO Peggiorano tutte, Bologna 192esima. Al vertice Usa e Regno Unito ROMA- Gli atenei italiani perdono terreno nelle classifiche internazionali. Nel World University rankings 2008, il nostro sistema universitario piazza soltanto sette atenei. Un anno prima erano nove le università italiane presenti nella top 9[7U c quasi tutte piazzate meglio rispetto al 2008. La graduatoria che mette in fila le migliori università del mondo, pubblicata alla fine del 2008, viene stilata annualmente dal britannico Times-Higher Education Supplement in collaborazione con QS (Quacquarelli Spmonds) ed è alla sua quinta edizione. Ai primi posti si piazzano università americane e inglesi. Secondo gli autori della classifica, al top dell'istruzione terziaria mondiale ci sono Harvard, Yale, Oxford e Cambridge ' Gli atenei italiani fanno fatica a conquistare posizioni di prestigio e per trovarne una bisogna scorrere l'elenco quasi fino alla duecentesima posizione. t: l'ateneo statale di Bologna, che oggi si ritrova al 192esimo posto mentre nel 2007 era a quello numero 173, la punta di diamante dell'istruzione universitaria italiana. Altre sei università (Roma- La Sapienza, il Politecnico di Milano, gli atenei di Padova, Pisa e Firenze e l'università Federico Il di Napoli) rientrano nella top 400. Una sostanziale bocciatura che arriva d'oltremanica proprio mentre in Italia si parla di lo tta agli sprechi, tagli ai finanziamenti e ai baroni. «La graduatoria- spiega Cristiano Violani, presidente del nucleo di valutazione del La Sapienza di Roma, che l'anno scorso figurava al 183esimo posto - si basa su parametri piuttosto semplici che spesso vengono dichiarati dalle stesse università. Ma quello che pesa maggiormente è il giudizio dei docenti universitari e dei datori di lavoro. Per mettere in fila 400 università sparse nei cinque continenti sono stati presi in considerazione gli indicatori che puntano soprattutto sul livello qualitativo delle ricerche scientifiche condotte nei vari atenei e sulle opportunità di lavoro che si aprono agli studenti che riescono a laurearsi nelle più prestigiose università. Ma non solo: il punteggio complessivo attribuito alle prime 400 università prese in considerazione dipende anche dal giudizio di 6.354 accademici di livello internazionale e da 2.339 datori di lavoro del settore pubblico e privato s l >arsi in tutto il mondo. Per certificare quali sono le università che lavorano al meglio è stata j3resainesame anche la presenza di docenti e studenti stranieri- , due parametri che dovrebben3 indicare il livello di attrattività degli atenei, il rapporto docenti/ studenti e il numero di ricerche scientifiche più citate dai colleghi delle altre università. Ma, a dispetto dei risultati, Violani difende l'istruzione universitaria italiana. «Nel nostro paese - osserva Violani - il livello del servizio universitario è abbastanza omogeneo. Per rendersene conto basta guardare la classifica dei sistemi universitari dove l'Italia si piazza al dodicesimo posto». E per assegnare la leadership nei diversi ambiti disciplinari sono state predisposte cinque diverse classifiche (biomedico, artistico/umanistico, delle scienze sociali, tecnologico e delle scienze naturali) con le migliori cento università del mondo. In ambito tecnologica, dove primeggia il M'rt (il Massachusetts institute of technalogy), il Politecnico di Milano, che affianca la Columbia university, si piazza al 63esimo posto. Nella speciale graduatoria relativa all'Europa i primi atenei italiani sono alla piazza numero 78 (Bologna) e 85 (La Sapienza). ________________________________________________________________ Corriere della Sera 8 feb. ’09 UNIVERSITÀ MODELLO IKEA L' università è come un mobile Ikea: costa poco, è accessibile a tutti, ma serve solo alla lobby dei docenti. E come il mobile Ikea non è propriamente un «pezzo» che valorizza l' arredo, così la laurea triennale è un «pezzo di carta» che «arreda» il curriculum e nulla più. Nella edizione rinnovata di Una Ikea di università (Raffaello Cortina, pp. 162, 12) il filosofo Maurizio Ferraris individua il colpevole di questa situazione: il «fuoco amico», ovvero la riforma voluta dai docenti di sinistra che la destra ha avallato. E propone qualche soluzione. Abolire il valore legale del titolo di studio; concorsi annuali per docenti senza che la domanda richieda requisiti astrusi come si sta già tentando di fare per eludere l' estrazione a sorte dei commissari (come previsto dal decreto Gelmini); ricordarsi che i ricercatori dovrebbero fare ricerca ma servono docenti per insegnare (il Mit ha 635 ordinari e 166 ricercatori); introdurre la contrattazione individuale tra docente ed ateneo; penalizzare i professori che non pubblicano. Il tutto per passare dall' università-Ikea a una in stile Mongiardino. Panza Pierluigi _____________________________________________________ Repubblica 14 feb. ’09 CALZOLARI: SENZA FONDI IL FUTURO É NERO E SPARIREMO DALLA GRADUATORIA Ugo Calzolari, rettore dell'Università di Bologna ROMA - «Nel 2009 l'Università di Bologna non sarà più tra le 200 più prestigiose al mondo». La previsione non proprio rosea arriva dal rettore dell'ateneo emiliano, Ugo Calzolari, che spiega perché gli atenei italiani fanno fatica a tenere il passo conte università straniere. Quanto ritiene attendibile il World università rankings? «Non ha un valore assoluto, ma si tratta di una delle più autorevoli classifiche internazionali per gli atenei». E perché le università italiane continuano a perdere posizioni? «Alcuni parametri presi in considerazione sono legati direttamente alle disponibilità finanziarie degli atenei. E senza fondi non è possibile reggere la concorrenza delle università straniere, come quelle asiatiche». Può spiegarci meglio? «Bologna è nella top 200 perla sua reputazione accademica internazionale. Ma il numero di docenti e studenti stranieri dipende dalle nostre capacità economiche. All'estero i docenti guadagnano di più e ospitare studenti stranieri costa». Come vede il futuro? «Non ho difficoltà ad ammettere che nel ranking 2009 forse Bologna uscirà dalla lista delle prime 200 università e gli altri atenei italiani continueranno a scendere in classifica: i recenti tagli del governo non lasciano molti margini». Ma l'esecutivo parla di sprechi e privilegi. «Alcune università certamente non funzionano, ma perché penalizzare anche quelle che funzionano?». Lei, cosa farebbe? «Basta guardare alla Francia di Sarkozy che ha dato il compito di rilanciare il sistema a dieci pali universitari e stanziato 5 miliardi di euro. In Italia basterebbe individuare 15 atenei che funzionano». Privi di finanziamenti è impossibile reggere la concorrenza con le università straniere, come le asiatiche Harvard è al primo posto del World University Rankings 2008 nella top 200un solo ateneo _____________________________________________________ Il Mondo 13 feb. ’09 ATENEI, PER I MIGLIORI PROF STA ARRIVANDO IL BONUS Più soldi in busta paga o nei progetti di ricerca. Valutazioni esterne, non solo da parte degli alunni ma anche di commissioni dì professori ordinari che giudicano i colleghi. Assunzione dei ricercatori più bravi. E molta trasparenza, grazie a internet. Dopo anni di convegni e dibattiti su come premiare il merito dei docenti, sembra che qualche ateneo abbia cominciato a muoversi. Gli ultimi, in ordine di tempo, sono stati i politecnici di Milano (rettore Giulio Ballio) Torino (rettore Francesco Profumo). Lunedì 26 gennaio nel capoluogo lombardo è stato approvato un «progetto merito» che prevede, entro un anno, la diffusione in rete di curricula e pubblicazioni di docenti e ricercatori. Sotto la Mole, invece, la novità riguarda l'attribuzione, tramite concorso, di sei posti fissi da ricercatore per quei giovani (minori di 32 anni) che vinceranno il bando Firb (fondo per gli investimenti della ricerca di base) del Miur. A Padova, il rettore Vincenzo Milanesi già nel 2005 aveva sottoposto a giudizio tutti i dipartimenti dell'ateneo di fronte a un pool di 283 esperti (di cui 171 dall'estero). I criteri riguardavano qualità e rilevanza dei lavori, ma anche le prospettive future per le varie discipline. I risultati, presentati di recente, serviranno ai centri di ricerca per stringere accordi internazionali e indirizza re le attività verso i campi maggiormente finanziari. Poi ci sono università che mettono subito più soldi a disposizione dei docenti. «A chi risulta in posizione elevata nella graduatoria delle pubblicazioni internazionali riconosciamo un contributo che va direttamente in busta paga», afferma Lorenzo Peccati, prorettore alle risorse umane in Bocconi. I:assegno può arrivare fino a 25 mila euro che significa, per un assistant professor (docente a contratto, rinnovabile di tre anni), un incremento dello stipendio del 50°10. «Stiamo studiando un meccanismo che prevede, a scelta del docente, di non incassare rutti i soldi subito ma di rateizzarli negli anni», sostiene Peccati. Viene premiata anche la ricerca, per le attività all'estero: 5 mila euro all'anno per gli assistant e 7 mila (in base alle pubblicazioni realizzate) per ordinari e associati. In totale l'ateneo del rettore Guido Tabellinì investe ogni anno 1 milione di euro. Un meccanismo simile è in funzione nella facoltà di economia dell'università di Torino, dove il 10% dei proventi che arrivano dai master è distribuito tra chi può contare su un numero maggiore di pubblicazioni a livello internazionale. Circa 400 mila euro vanno invece a premiare i risultati allo Iulm. Il numero uno Giovanni Puglisi ha lanciato nel 2008 il progetto Apeiron: «Una banca dati interna nella quale finiscono le pubblicazioni dei professori», la definisce il rettore, «che poi viene valutata con un punteggio. Chi si ferma sotto una determinata soglia nell'arco di un triennio, non ottiene contributi sulla linea dei fondi per la ricerca». Soldi in busta ai docenti, secondo qualità e quantità delle pubblicazioni. Ma anche l'assunzione dei ricercatori più bravi _____________________________________________________ Avvenire 10 feb. ’09 ATENEI, SALGONO STIPENDI E PENSIONI di ViffoKo Spiiielli Migliorano i trattamenti di pensione del personale inserito nel contratto collettivo del comparto universitario, recentemente rinnovato. Il contratto si applica a tutti i dipendenti, dirigenti esclusi, delle università, delle istituzioni universitarie, delle aziende ospedaliere universitarie e dell'istituto di scienze motorie. Gli aumenti delle retribuzioni, per il biennio economico 2006-2007, concorrono a migliorare il calcolo delle nuove pensioni, applicando le stesse regole in vigore per i dipendenti delle amministrazioni statali. 1 benefici economici sono considerati ai fini previdenziali, secondo i rispettivi ordinamenti, alle scadenze e negli importi previsti, nei coni fronti del personale cessato dai servizio, con diritto a pensione, nel corso del biennio economico. In particolare è confermato il con~1obamento dell'indennità integrativa speciale, nella voce "stipendio tabellare", a decorrere dal I' gennaio 2003. Calcolo della pensione. Sono utili per il calcolo della quota della pensione (periodi fino al 1992) tutte le voci stipendiali che rientrano nel trattamento fondamentale. Escludendo l'indennità integrativa speciale, conglobata dà 2MI è riconosciuta la maggiorazione del 18% (art. 15 legge n. 177/1976) sullo stipendio tabellare annuo lordo comprensivo dell'indennità integrativa, sulla retribuzione individuale di anzianità e sugli eventuali assegni ad personam. E indennità di ateneo rientra nella quota Ama non beneficia della maggiorazione del 18%. Per il calcolo della quota B della pensione, sono considerate le seguenti voci: l'indennità di ateneo e l'indennità di responsabilità attribuite al personale inquadrato nelle categorie B, C e D, i compensi per lavoro straordinario, la retribuzione di risultato, le indennità ed i compensi retribuiti con il fondo d'Ateneo, l'indennità mensile istituita dal precedente contratto collettivo. Inquadramenti particolari. Peri dipendenti delle università, delle aziende ospedaliere universitarie e per il personale delle strutture convenzionate di ricovero e cura a carattere scientifico, il trattamento economico fondamentale e l'indennità di ateneo restano a carico del l'Università, mentre la restante parte, compreso il salario accessorio, viene finanziata con l'indennità perequativa. Ai docenti incaricati esterni sono corrisposti incrementi mensili della retribuzione nelle misure e alle decorrenze previste per la posizione apicale (EP2). La retribuzione include ed assorbe l'intero importo dell'indennità integrativa speciale in godimento. Ai collaboratori esperti scientifici spetta un trattamento economico annuo lordo, a decorrere dal 1. 1.2006, di 14.564,14 euro e a decorrere dal 1. 1.2007 di 15.209,67 euro. Per i dipendenti, già assistenti ex ISEE dell'Università di Roma Foro Italico sarà definita una apposita sequenza contrattuale, non appena saranno comunicati dall'Aran i necessari indirizzi politici ed economici. ________________________________________________________________ Unione Sarda 5 feb. ’09 LEGGE SULLA RICERCA, PROGETTO INCOMPIUTO di Gaetano Di Chiara Ad ogni elezione le speranze dei ricercatori si riaccendono. Così anche i ricercatori sardi vedono nelle elezioni regionali un’opportunità. In realtà, costa poco fare promesse ai ricercatori: nel caso, piuttosto frequente, che non venissero mantenute, non ci sarebbero né scioperi né cortei di protesta. Nell’immaginario collettivo la ricerca è infatti un lusso. Quello di potersi permettere un investimento vantaggioso ma a lungo termine. Finanziare la ricerca significa infatti saper attendere per ottenere di più. Alla ricerca la giunta Soru ha dedicato un’attenzione particolare. Due le iniziative più salienti: il programma Master& Back, che ha finanziato l’accesso dei laureati sardi a corsi di istruzione superiore fuori dalla Sardegna ed il loro rientro, e la legge sulla ricerca, intesa a finanziare stabilmente la ricerca di base ed applicata. Mentre il Master&Back, dopo le incertezze amministrative iniziali, è ormai a regime, per la legge sulla ricerca, alla sua prima uscita, si profila un vero e proprio flop. I motivi sono sia politici che amministrativi. Su circa 21 milioni di euro disponibili, ben 15 sono stati destinati a contratti per giovani ricercatori, che, paradossalmente, rischiano di non avere i fondi per fare ricerca. Restano infatti 6 milioni di euro banditi nominalmente per la ricerca di base, di cui solo 3 milioni e 700 mila euro sono effettivamente attribuiti al finanziamento di questo tipo di ricerca; il resto, 2 milioni e 300 mila euro, è specificamente destinato alla ricerca sanitaria, cioè, come recita il bando, a ricerche che possono contribuire a migliorare il servizio sanitario e che sono quanto di più applicativo e meno di base si possa concepire. Al dilà del fatto che questa palese incongruenza presta il fianco a ricorsi amministrativi, per la ricerca di base rimangono le briciole: poco più di 30 mila euro a testa per un centinaio di progetti. Come se non bastasse, le norme per redigere le domande di finanziamento contengono una serie di errori ed omissioni che ne rendono difficile la compilazione da parte dei ricercatori e la valutazione da parte degli esperti. Così, non appena varata, la legge regionale sulla ricerca ha subito perso la rotta, finendo poi per arenarsi sulla sponda dell’inefficenza amministrativa. Considerazioni simili si possono fare sulla ricerca applicata, che merita un’analisi più puntuale. La ricerca scientifica e tecnologica possiede tutte le caratteristiche di un settore strategico di interesse primario per la Sardegna, dato che non inquina, ha un alto valore aggiunto e può contare su alcuni gruppi di eccellenza presenti nell’isola. Questo la giunta Soru lo ha capito ma non è stata capace di coinvolgere in un ampio progetto di sviluppo le migliori energie dell’università e dei centri di ricerca. Così, i fondi per la ricerca sono serviti a mantenere in vita una serie di carrozzoni buoni per pagare stipendi ma incapaci di fare utili e di produrre vera ricerca scientifica. Che fare? Attribuire alla ricerca una sua dignità politica e amministrativa dedicando ad essa, se non un assessorato, almeno un’agenzia, dotata di uno specifico referente politico e di personale amministrativo appositamente selezionato e formato. Questo il messaggio per i candidati di ogni partito. Già, perché, dimenticavamo di dire, la ricerca non ha partito. _________________________________________________________ ItaliaOggi 10 feb. ’09 PROF, SCATTA LA SELEZIONE PREVENTIVA La Gelmini: troppi insegnanti. Un regolamento riscriverà le regole di accesso all'università Una gara nazionale ab initio e poi controlli a livello regionale DI ALESSANDRA RICCIARDI L’assunto è che gli insegnanti abilitatisi negli anni, e che ora premono per un po sto fisso, sono troppi. Tanto da non consentire di dare più soldi alle scuole per il loro funzionamento, ha detto il ministro dell'istruzione rispondendo nei giorni scorsi a una interrogazione di Emanuela Ghizzoni (Pd) alla camera. In realtà, «si sarebbe dovuto procedere ad una razionalizzazione del personale della scuola, cosa che non è stata fatta», ha detto Mariastella Gelmini, puntando l'indice contro il governo Prodi reo dell'omissione, «il risultato è stato un taglio di 560 milioni di euro degli stanziamenti relativi alle spese di funzionamento delle scuole», come effetto della clausola di salvaguardia prevista dalla Finanziaria 2007. Insomma, non si è razionalizzato il personale e il risultato è stato un impoverimento del servizio. Ora, a invertire la rotta, ci penserà la stessa Gelmini con un regolamento sulla formazione degli insegnanti che, secondo quanto risulta a ItaliaOggi, è in corso di definizione. E così mentre con il disegno di legge Aprea (si veda l'articolo in pagina) si dovranno riscrivere le regole sulla professione (tre gradini professionali per la carriera dei docenti) e la governance degli istituti, la formazione sarà stralciata e deferita a un regolamento ministeriale. Un provvedimento che manda in soffitta l'attuale sistema delle Siss, le scuole superiori di abilitazione. Il provvedimento prevede percorsi formativi a numero programmato e con prova di accesso preventivo a livello nazionale. Ma l'ingresso selezionato non sarà garanzia di accesso alla professione. Anzi. Per esempio, per insegnare nella scuola superiore dopo la gara nazionale propedeutica all'università, si ipotizza un percorso formativo di 5 anni. I:abilitazione all'esercizio della professione si consegue con una verifica positiva al termine del tirocinio di un altro anno. A cui, però, non si accede in automatico. Il regolamento, a cui stanno lavorando gli esperti della Gelmini, infatti prevede che l'apertura dell'anno di tirocinio formativo sia subordinata alla previsione annuale di esigenze di docenti a livello regionale. Senza necessità di professori, niente tirocinio e niente abilitazione. Dalla selezione preventiva nazionale alla autorizzazione regionale, in futuro l’iter per diventare insegnanti sarà dunque a ostacoli. Il nuovo meccanismo dovrebbe partire dal 2011/2012. I percorsi saranno diversificati tra scuola dell'infanzia e primaria, da un lato, e secondaria di primo e di secondo grado, dall'altro. Per il primo canale, è prevista una laurea quinquennale in cui è compreso il tirocinio. L’accesso è sempre subordinato al superamento di una prova nazionale. Oggi per infanzia ed elementare, l’iter prevede 4 anni di università in Scienza della formazione primaria, il cui titolo finale ha valore abilitante. In assenza di un concorso selettivo, il docente può iscriversi nella seconda fascia delle graduatorie di istituto per la chiamata alle supplenze. Nella scuola secondaria inferiore e superiore, invece, l'attuale percorso è più lungo di quello previsto dal regolamento Gelmini: laurea di cinque anni e poi la Ssis, di due anni, che consente di agguantare l'abilitazione. Tra le altre novità del provvedimento in arrivo, le classi di abilitazioni e i punteggi per i crediti formativi. Niente, invece, sull'assunzione. Per le modalità di accesso al lavoro la riforma è rinviata al ddl Aprea. ________________________________________________________________ Repubblica 2 feb. ’09 NIENTE PIÙ FONDI PER I CORSI DI RECUPERO LE SCUOLE NEL CAOS Saltano le lezioni, corsa agli insegnanti privati Ascolta la notizia SALVO INTRAVAIA ROMA — Corsi di recupero nel caos e alle famiglie non resta che rivolgersi ai professori privati. A pochi giorni dall’avvio delle attività che dovrebbero consentire agli studenti delle superiori di recuperare le insufficienze rimediate nel primo quadrimestre, i presidi non sanno che pesci prendere. Mancano i soldi per pagare eventuali insegnanti esterni e le risorse per quelli interni sono insufficienti. In provincia di Milano i capi d’istituto hanno chiesto lumi al dirigente dell’Ufficio scolastico provinciale (l’ex provveditorato agli studi) sentendosi rispondere che «al momento non c’è nessuna certezza». Il consiglio che arriva dal provveditorato è di svolgere i corsi interrompendo le lezioni. «Una soluzione ragionevole e già adottata in molte scuole — dice Antonio Lupacchino, il dirigente dell’Ufficio scolastico milanese — è fare i corsi al mattino, sospendendo per una settimana l’attività didattica. In questo modo i presidi non hanno da pagare ore di straordinario agli insegnanti». Ma non sempre la soluzione è praticabile perché occorre garantire almeno duecento giorni di lezione. In difficoltà un po’ tutti i dirigenti scolastici della penisola, da Milano a Palermo. «La legge sui corsi di recupero è rimasta — dichiara polemicamente Roberto Tripodi, presidente dell’Associazione delle scuole autonome della Sicilia — ma quest’anno non è stata finanziata». Le scuole, dopo gli scrutini del primo quadrimestre, hanno l’obbligo di organizzare corsi di recupero per tutti i ragazzi che hanno riportato insufficienze in una o più materie ma i fondi scarseggiano. «Per evitare ricorsi da parte delle famiglie — continua Tripodi — ci sono due alternative: utilizzare i finanziamenti Idei, cioè quelli degli Interventi didattici educativi ed integrativi, che sono insufficienti, o interrompere le normali attività didattiche. Ma in questo caso cosa fanno i ragazzi che non hanno materie da recuperare?». Per oggi, annuncia Francesco Scrima, leader della Cisl scuola, nel corso del tavolo tecnico che si svolgerà al ministero». Qualche giorno fa, i segretari (i direttori dei servizi amministrativi) delle scuole piacentine hanno denunciato «la gravissima situazione finanziaria ed economica in cui versano gli istituti della provincia». In un ampio documento i segretari della provincia di Piacenza segnalano una serie di «problemi aperti urgenti», tra i quali proprio il finanziamento per il corrente anno scolastico dei corsi di recupero. «Il problema esiste e assume particolare rilevanza proprio in questi giorni» spiega Giorgio Rembado, presidente dell’Associazione nazionale presidi. I capi d’istituto, senza sapere quanto potranno spendere per pagare i docenti a 50 euro l’ora, devono trovare la soluzione a numerosi quesiti. Quanti corsi di recupero sarà possibile attivare? Per quali materie e per quante ore? E ancora: con quali risorse si dovranno eventualmente pagare i docenti esterni, se i professori della stessa scuola non intendono svolgere i corsi di recupero pomeridiani? La norma prescrive corsi di almeno 15 ore, ma la realtà sarà probabilmente un’altra. E rivolgersi ai prof privati può costare alle famiglie dai 15 ai 50 euro l’ora. Nel 2008, le scuole hanno sfruttato un finanziamento di 240 milioni. Quest’anno, anche conteggiando il budget erogato con il fondo d’istituto (800 euro a docente), mancano all’appello 58 milioni. La Uil scuola ha inviato una lettera al ministro dell’Istruzione, Mariastella Gelmini, per sapere su quali risorse è possibile contare «al fine di consentire un’attenta programmazione dei corsi di recupero », scrive il segretario, Massimo Di Menna. «Oltre agli alunni che riportano insufficienze — rilancia Piero Bernocchi dei Cobas — in realtà a essere in difficoltà sono proprio le scuole che, come al solito, devono gestire fondi che so- no scarsi in relazione alle reali esigenze». Anche per questa ragione, il prossimo 12 febbraio la Flc Cgil organizzerà un sit-in davanti la sede del ministero. I corsi di recupero furono lanciati nel 2007 dall’ex ministro della Pubblica istruzione, Giuseppe Fioroni. Nell’anno 2007/2008 dopo il primo quadrimestre furono due milioni gli studenti che riportarono insufficienze nella pagella del primo quadrimestre. Ma il totale delle materie insufficienti, con in testa matematica e inglese, toccò quota 8 milioni: in media quattro a testa. _____________________________________________________ L’Unità 7 feb. ’09 SCUOLA E ATENEI RIPARTE LA PROTESTA CONTRO I TAGLI GELMINI-TREMONTI Mimmo Pantalea «Il ministro si fermi prima che la situazione diventi ingovernabile» Torna la protesta anti-Gelmini. «Torneremo a riempire le piazze il 27 febbraio. Ci siamo ancora», sottolinea l'Unione degli studenti che annunciando la mobilitazione nazionale. «Di nuovo in piazza perché - sottolineano gli studenti - non possiamo accettare l'idea per cui la Gelmini continui a demolire la scuola italiana nel silenzio generale e addirittura godendo di visibilità rispetto ad alcune iniziative spot, come ad esempio la creazione del canale su Youtube. È necessario tornare a mobilitarsi per proseguire nella lotta iniziata in autunno, per opporre ai disegni del Governo la nostra idea di scuola, quella che abbiamo costruito nelle occupazioni e nelle lezioni in piazza d'autunno: una scuola degli studenti e per gli studenti, inclusiva e partecipata». L'Onda dunque torna in piazza e protesta anche il sindacato Flc-Cgil. La Federazione dei lavoratori della conoscenza guidata dal segretario Mimmo Pantaleo giovedì prossimo sarà sotto il ministero dell'Istruzione. Un sit-in per rivendicare l'immediato ripristino dei fondi per il funzionamento e amministrativo della scuola pubblica. Non solo. La Flc-Cgil è decisa a proclamare uno sciopero per metà marzo. E si fa risentire anche l'Onda universitaria, pronta a contestare il ministro dell'Economia, Giulio Tremonti, il 16 febbraio, giorno in cui l'esponente di governo è atteso alla Sapienza per un seminario sulla crisi. _____________________________________________________________________ il manifesto 4 Feb. 2009 ACCORDO GOOGLE E NASA PER UNIVERSITÀ DI «NUOVA GENERAZIONE» FRONTIERE ELETTRONICHE La Nasa e Google sosterranno il progetto per la creazione di una «università» che formerà «scienziati» in grado di «competere» con i sistemi di intelligenza artificiale. Alla base del progetto, la convinzione che, da qui a pochi anni, l'intelligenza artificiale supererà quella umana. Stando a quanto riportava ieri il «Financial Times in un articolo pubblicato in prima pagina dell'edizione europea, a capo della nuova istituzione accademica, che verrà battezzata «Sngularity University», ci sarà Ray Kurzweil, ispiratore della teoria che prima della metà di questo secolo ci saranno macchine in grado di migliorare il proprio funzionamento attraverso I'intelligenza artificiale e che a risolvere problemi di portata planetaria, come la scarsità delle risorse energetiche, la fame nel mondo o i cambiamenti climatici, saranno computer più intelligenti degli esseri umani. _____________________________________________________ Il Sole24Ore 8 feb. ’09 INNOVAZIONE, ITALIA LONTANA DAI LEADER UE Il rapporto della Commissione europea di Franco Locatelli In 10 anni qualche passo avanti l'abbiamo fatto ma il problema è che non solo gli Usa e il Giappone ma l'Europa é le nuove tigri dell'Asia hanno una capacità innovativa maggiore della nostra. Il risultato è che in materia di innovazione l'Italia si colloca Al26 ° posto nel mondo (nel 1995 eravamo Al 28° posto) e al i9° in Europa o, se si preferisce, nella serie C dell'Unione a 27, al di sotto della media comunitaria e dietro Paesi come Grecia, Portogallo, Spagna e Slovenia. A dirlo è l'ultima edizione dell’European innovation scareboard 2008 (Eis) elaborato della Commissione europea con la collaborazione scientifica del team del Cnr-Irpss composto da Daniele Archibugi, Andrea Filippetti e Mario Denni. Le graduatorie economiche internazionali, si sa, vanno sempre prese con le pinze, ma l'attendibilità di questa classifica, giunta ormai alla quinta edizione, è comprovata dalla comunità scientifica e lungamente sperimentata. Paradossalmente noi italiani siamo diventati i primi della classe nell'elaborare statistiche sull'innovazione ma non siamo altrettanto bravi a fare innovazione nella realtà. Le variabili prese in esame dagli esperti della Commissione europea per valutare, in un arco di cinque anni, l'innovazione sono 29 aggregate in tre pilastri: 'attività delle imprese; la qualità delle risorse umane; la dotazione tecnologica infrastrutturale e la capacità di assorbire tecnologie trasformandole in innovazione. La novità dello studio in questione è che la classifica dell'innovazione non è basata solo sulla spesa degli Stati e dei privati in R&S (che ci vede ancora una volta lontani dal 3% del Pil ipotizzato dall'Agenda di Lisbona e dal 2% che è la media europea) ma sul contesto di infrastrutture socioeconomiche e istituzionali in cui le imprese operano. Nel complesso l'Europa compie passi avanti specialmente nella qualificazione delle risorse umane, nello sviluppo della banda larga e negli investimenti in venture capital e riduce il gap in innovazione rispetto a Usa e Giappone. E qualche progresso, soprattutto tra il 1995 e il 2005, fa anche l'Italia (grazie soprattutto allo sviluppo della banda larga e delle spese in ICT della telefonia mobile) ma il posizionamento competitivo in innovazione del nostro Paese resta critico. L'European innovation scoreboard del 2008 divide i 27 Paesi dell'Unione più la Croazia, la Turchia, l'Islanda, la Norvegia e la Svizzera in quattro gironi e noi siamo solo nel terzo, quello dei Paesi a moderata capacità innovativa, in compagnia di Cipro, Estonia, Slovenia, Repubblica ceca, Spagna, Portogallo e Grecia. Questo gruppo è sotto la media della capacità innovativa dell'Europa ed è lontano dai leader continentali dell'innovazione (la Svezia, che è davanti a tutti, la Finlandia, la Germania, la Danimarca e il Regno Unito) ma anche dagli immediati inseguitori (Austria, Irlanda, Lussemburgo, Belgio, Francia e Olanda). Nell'indice sintetico dell'innovazione, che va da zero a uno, la performance dell'Italia è dello 0,35. La pagella che Bruxelles dedica al nostro Paese parla di una performance italiana che è non solo sotto la media europea ma anche sotto il tasso di crescita della capacità innovativa dei 27. In particolare abbiamo punti di forza nel sostegno finanziario all'innovazione e nell'impatto economico dell'innovazione ma una relativa debolezza nelle risorse umane, negli investimenti e nelle collaborazioni tecnologiche delle imprese. Il giudizio è più una conferma che una sorpresa e trae le sue origini nella particolare morfologia industriale di un Paese ricchissimo di piccole, piccolissime e micro aziende ma molto povero di grandi gruppi (che sono quelli che più possono investire in Ricerca e sviluppo) e nella scarsa efficienza della spesa pubblica per R&S. Negli ultimi cinque anni l'Italia ha migliorato la sua capacità innovativa sul versante della qualità delle risorse umane, del sostegno finanziario all'innovazione e nei cosiddetti processi e prodotti intermedi (i brevetti, per esempio). Tutto ciò è avvenuto grazie al balzo in avanti del numero dei laureati (+8,8oro) e dei dottorati (+22,7%) in materie scientifiche e ingegneria e in scienze sociali e umanistiche e del rilevante sviluppo degli accessi delle aziende alla banda larga (+18,6%) e dei marchi di fabbrica (+q,7oio ). Non altrettanto positivo è l'andamento degli investimenti industriali e delle performance della capacità innovativa, soprattutto perché in declino risultano sia le vendite dei nuovi prodotti per il mercato (-7,8%) sia quelle dei nuovi prodotti nuovi per l'impresa (-5,3%). Per l'Italia l'innovazione rimane, dunque, un cammino in salita ma anche una scommessa ineludibile se davvero vogliamo restare nel gruppo delle economie più avanzate. _____________________________________________________ Tst 4 feb. ’09 E I GENI HANNO CACCIATO LO SPIRITO DALLA LETTERATURA GILBERTO CORBELLINI UNIVERSITA' LA SAPIENZA- ROMA «Se le idee devono interpretare la natura è necessario che siano altrettanto sconfinate». E' Sherlock Holmes, nel racconto «Uno studio in rosso», a usare queste parole per riferirsi alla teoria dell'evoluzione. Il detective per antonomasia replica all'amico Watson, il quale è in difficoltà a seguirlo nel ragionamento attraverso cui Holmes cerca di spiegare evolutivamente l'emozione provata durante un concerto di violino. Holmes dice di condividere l'ipotesi darwiniana sul carattere innato e le origini evolutive delle capacità musicali. Oggi sappiamo che HolmesDoyle-Darwin avevano ragione. La musica, ma il discorso vale per l'arte nel suo insieme, non è un mero prodotto «culturale». E il problema di giudicarne le qualità «culturali» non può continuare a prescindere dalla funzionalità adattativa e dall'esistenza di un'organizzazione neurobiologica individuale, e quindi educabile, con diverse probabilità di successo. Nei Paesi con una lunga tradizione artistico-letteraria è ritenuto quasi blasfemo sostenere la possibilità di una spiegazione evoluzionistica e biologica dell'esperienza estetica. Perché significherebbe abbracciare un determinismo che nega la cultura. Quindi, la libertà e la creatività individuale. Che per molti toccherebbe lo zenit nell'arte. Tanto la tradizione critico-estetica storicista quanto, se non di più, quelle esistenzialista, fenomenologica, marxista e strutturalista ritengono che nelle scienze non si esprima alcuna vera creatività. Figurarsi se poi si cerca di ricondurre le origini dell'arte a qualche funzionalità biologica adattativa! Queste tradizioni critiche «antiscientiste» dominano da sempre la cultura italiana. Il che spiegherebbe il fatto che in Italia non siano mai stati tradotti i libri di Ellen Dissanayake: né «Homo aestheticus: Where art comes from and why?» né «Art and intimacy: how the arts begun». AL di là della plausibilità biologica delle spiegazioni evolutive contenute in questi libri, i dati antropologici e le critiche alle dottrine estetiche post-kantiane, e soprattutto alle filosofie delle avanguardie artistiche, di aver oscurato la comprensione dell' arte come adattamento e quindi come un universale umano, sono del tutto pertinenti. La letteratura non sfugge alla possibilità di coglierne le origini evolutive e la funzione adattativa. Storici e critici della letteratura che utilizzano teorie e concetti evoluzionistici sono in aumento nel mondo anglosassone. Basti leggere la raccolta di saggi curata da Gottschall e David Sloan Wilson, «The literary animal Evolution and the nature of narrative» (Northwestern University Press). II libro propone differenti approcci evoluzionisti alla funzione della letteratura, che ne spiegano l'origine sia come un adattamento utile per l'accumulazione delle conoscenze e l'elaborazione delle relazioni sociali sia come un sottoprodotto di strutture cognitive rispondenti ad altre funzioni. Il massimo esponente della critica letteraria darwiniana è Joseph Carroll, autore di «Evolution and literary theory» (University of Missouri Press) e «Literary Darwinism: evolution, human nature and literature» (Routledge). Gli argomenti che ha sviluppato, utilizzando il bagaglio di fatti e concetti raccolti dalla psicologia evoluzionistica, sono alquanto consistenti. Diverse riflessioni circolano ormai anche nelle riviste letterarie che prendono in esame diverse ipotesi esplicative sull'arte, mostrando anche quali risultati produca l'applicazione dei concetti della psicologia evoluzionistica all'«Amleto» o a «Orgoglio e pregiudizio». L'opera di Jane Austen è uno dei cavalli di battaglia di Carroll per illustrare come i ruoli e le emozioni dei personaggi creati da una delle più amate scrittrici del realismo romantico inglese descrivano degli universali evolutivi della natura umana. Non mancano studi di critica letteraria darwiniana sul significato psicoevolutivo dell' amore romantico, un tema che è oggetto di approfondite indagini neurobiologiche da parte di uno scienziato dello spessore di Semir Zeki. Uno dei temi di maggior discussione è stato la scoperta, pubblicata su «Human nature» ed emersa dall' analisi delle tipologie di soggetti femminili e di personaggi maschili nella letteratura romantica inglese, che le donne preferiscono avere relazioni a breve termine con eroi negativi (seduttori, audaci, promiscui e inaffidabili), che gli psicologi evoluzionisti chiamano «cad» (da «caddie»,l’assistente nel golf) mentre per riprodursi preferiscono una figura premurosa, il «dad» (babbo). Insomma, gli scrittori descrivono come usiamo le strutture motivazionali ed emozionali di cui ci ha dotato l'evoluzione per rispondere a diversi contesti sociali e culturali. E non mancano scrittori che traggono ispirazione dal darwinismo. Ian McEwan dichiara di considerare la letteratura come «antropologia». In Italia, forse, nessuno se ne accorge, ma anche la cultura umanistica evolve. E può migliorare. II critico neozelandese Denis Dutton, editor del sito «Arts and Letters Daily», ha scritto che è ormai alla portata un'«estetica naturalistica fondata su una psicologia scientificamente valida che non solo spieghi l'arte, ma il fascino esercitato dalle teorie estetiche». _____________________________________________________ La Stampa 7 feb. ’09 LE SCIMMIE CHE SCANDALO! Torino 1864 Come arrivò in Italia la rivoluzione scientifica darwiniana PIERO BIANIiCCI In Italia la rivoluzione scientifica di Darwin arrivò passando per Torino. La sera dell'11 gennaio 1864 Filippo de Filippi, professore di zoologia, tenne in città, per un pubblico popolare, una conferenza dal titolo «L'uomo e le scimmie» (sic) destinata a lasciare il segno. All'epoca Torino era capitale d'Italia anche nella cultura, dalle sue aule il pensiero positivista si irradiava nel Paese. Molti applaudirono, qualcuno mugugnò. II testo, andò a ruba, fu pubblicato in tre edizioni. Erano passati meno di quattro anni dall'uscita dell'Origine delle specie nel Regno Unito (24 novembre 1859,1250 copie esaurite in un giorno). Ma Darwin fino a quel momento aveva rimosso l’inserimento dell'uomo nel percorso evolutivo: ci arriverà in modo esplicito solo nel 1871 con Tiee Des of Man. Filippo de Filippi, invece, fin dal titolo della sua conferenza era andato al centro del problema. Ovviamente scatenò l'ira del clero, benché fosse uomo di fede e avesse cercato nella sua conferenza di conciliare la religione con le nuove idee scientifiche. Rotto il ghiaccio, nel 1864 l’editore Zanichelli pubblicava L'origine delle specie nella traduzione di Giovanni Canestrini e Leonardo Salimbeni. Nel 18721a Utet, Unione Tipografico - Editrice Torinese, avviava la pubblicazione di tutte le opere di Darwin a cura di Michele Lessona, amico di de Filippi e suo successore sulla cattedra di zoologia. Ai testi originali si attaccò anche un libro divulgativo del Canestrini, professore all'Università di Padova. Filippo de Filippi morirà nel 1867 a 53 anni, colpito dal colera a Hong Kong durante un viaggio di circumnavigazione del globo sulla corvetta «Magenta» della Regia Marina. Stava replicando il grande tour di Darwin alla ricerca di altre conferme dell'evoluzionismo, ma fu meno fortunato del ragazzo inglese che si era imbarcato sul «Beagle» nel 1837 II suo lavoro per far conoscere il darwinismo verrà però continuato, oltre che da Michele Lessona, da scienziati come l’antropologo Paolo Mantegazza, il criminologo Cesare Lombroso, lo zoologo Giacomo Cattaneo e il neuropsichiatria Eugenio Morselli. Nel 1875 Darwin è accolto come socio straniero nella Reale Accademia dei Lincei, rilanciata da Quintino Sella. Un suo ritratto andrà a dominare un'aula di Anatomia all'Università di Torino, ora «Museo dell'Uomo». Nel Novecento il darwinismo ispira poi, tra i tanti, i genetiffi, da Giuseppe Montalenti a Luca Cavalli Sforza, e gli etologi, da Leo Pardi a Danilo Mainardi. Oggi è un paradigma senza il quale la biologia non avrebbe senso. Eppure ancora nel 2004 fu necessaria una commissione di cui fece parte Rita Levi Montalcini per convincere il ministro Letizia Moratti a non bandire Darwin dai programmi scolastici. _____________________________________________________ Repubblica 7 feb. ’09 ROSSO O BLU, COSÌ REAGISCE LA MENTE La bottega di un’orologiaia dovrebbe avere pareti rosse. Per scrivere un nuovo romanzo occorre iniziare dipingendo la stanza di blu. Il colore che ci avvolge riesce infatti a cambiare il modo in cui il cervello funziona. Come in un gioco di specchi, un ambiente color cielo senza nubi predispone la mente a creatività, pensiero positivo, ricerca della novità. Il rosso favorisce invece l'attenzione: un pericolo è forse incombente. Meglio concentrare le risorse del cervello per cogliere ogni dettaglio ed evitare distrazioni. Più accurate o più creative, le nostre facoltà dipendono anche dalle tonalità che ci circondano. L'ultimo studio su mente e colori ci arriva da una studiosa di marketing, la professoressa dell'università canadese della British Columbia Juliet Zhu. I suoi esperimenti sul rosso e sul blu si concentrano sulle capacità di concentrazione e di inventiva di un gruppo di studenti. Le misurazioni sono state condotte attraverso dei test su computer. Ma l'articolo appena pubblicata su Science è solo l'appendice di un fenomeno naturale che ha intrigato giganti come Aristotele, Newton, Schopenhauere Goethe. Loro scrittore tedesco, che era anche pittore, nella sua Teoria dei colori se la prese molto con Newton che aveva ridotto la luce in tutte le sue vesti a un fenomeno fisico, smontabile e ricomponibile con un semplice prisma. "Il suo errore - scrisse Goethe riferendosi al rivale -è stato quello di fidarsi della matematica anziché delle sensazioni degli occhi". Dall' 800 a oggi lo spettro dei colori è finita nel prisma di motti esperimenti scientifici. Nel 2007 una ricercatrice dell'università di Newcastle pubblicò su Current Biolog che il blu è in assoluto il colore preferito dal genere umano, ma le donne preferiscono una tonalità tendente verso il rosa. Nell'ateneo di Durham contarono le vittorie degli atleti impegnati nei match di pugilato, tae kwon do e lotta greco romana delle Olimpiadi di Atene. Chi indossava la maglietta rossa era riuscito a sconfiggere l'avversario vestito di blu nel 60% degli incontri: percentuale troppo alta per essere casuale, conclusero i due antropologi inglesi autori dell ostudio apparso su Nature nel 2005. Inevitabile che si arrivasse a toccare il tema dell'attrazione sessuale. Infatti Andrew Elliot dell'università di Rochester misurò il colore che più è in grado di favorire l'eccitazione negli uomini. Senza troppe sorprese, a ottobre del 2008 scrisse sul Joutnal of Personality and Social Psychology che le donne più attraenti sono quelle vestite di rosso. E che gli uomini sono del tutto inconsapevoli di essere guidati nelle loro scelte dalla tonalità di un vestito. Che i colori abbiano un potere di condizionamento subliminale è anche la tesi di Juliet Zhu, che non a caso fra i test da sottoporre ai suoi volontari ha inserito una serie di messaggi pubblicitari. Lo spot sul dentifricio capace di prevenire la carie (che permette cioè di sfuggire un rischio) si è rivelato più efficace con uno sfondo rosso. Se invece la promessa era quella di ottenere denti più bianchi (previsione di un'azione positiva) i volontari la trovavano più convincente con il contorno blu. Gli altri test che hanno coinvoltogli oltre 600volontari (quasi tutti studenti della stessa British Columbia) prevedevano per esempio la correzione di alcune bozze o la memorizzazione di una lista di parole. In questo caso, lo sfondo rosso del computer si è rivelato in grado di migliorare il punteggio degli studenti del 31%. Quando si trattava invece di escogitare tutti 'r possibili usi di un mattone simile al Lego, a di progettare un nuovo giocattolo partendo da un gruppo di forme geometriche, gli studenti con gli occhi nel blu hanno raggiunto performance migliori. «Certo - ha ammesso alla fine la Zhu-non tutti i popoli associano il rosso al pericolo. In Cina, che è il paese da cui vengo, è legato all'idea della gioia. Ed è probabile che i risultati dell'esperimento possano risultare molto diversi da luogo a luogo». _____________________________________________________ La Stampa 7 feb. ’09 FURBETTI DELLE BORSE STUDIO QUASI IL 5% DICHIARA IL FALSO UNIVERSITÀ OGNI ANNO L'EDISU PASSA AL SETACCIO QUASI 8 MILA FAMIGLIE Nel 2006 e 2007 recuperati circa 5 milioni di euro ANDREA ROSSI A scorrere la lista dei furbetti dell'Università s'incontrano storie surreali. Prendete quello studente che aveva dichiarato un terreno del valore di 5mila euro. Una miseria. E infatti gli era stata immediatamente garantita la borsa di studio. Peccato che poi abbiano scoperto che - altro che piccolo appezzamento - il valore reale del suo «fazzoletto» di terra ammontava a 870mila euro. Per non parlare di quell'altro universitario che era riuscito nell'impresa di certificare un reddito di 1.500 euro l'anno, quando invece la sua famiglia ne incassava 242mila. Un tripudio di facce toste. Ce ne sono in abbondanza: ogni anno dalle verifiche si scopre che il 5 per cento di chi chiede una borsa di studio per frequentare l'università cerca di fare il furbo. Qualche volta sbaglia in buona fede; più spesso cerca di frequentare l'università a gratis, in piena concorrenza sleale con chi davvero avrebbe bisogno di un sostegno. Gli 007 dell'Ente per il diritto allo studio - che eroga le borse per conto della Regione - li hanno scovati tutti, o quasi, in collaborazione con la Guardia di Finanza. E, negli ultimi due anni, hanno recuperato quasi 5 milioni di euro messi a disposizione del sistema universitario. Un tesoretto. In tempi di bilanci sull'orlo del baratro e risorse ridotte all'osso è puro ossigeno. Una somma che - spiega il presidente dell'Edisu Mariagrazia Pellerino - «vogliamo proporre alla Regione di reinvestire in altre borse di studio a favore degli studenti che restano esclusi dalle assegnazioni perché hanno redditi di poco superiori al tetto fissato per legge, che è di 18mila euro annui». Ogni anno l’Edisu eroga borse per oltre 27 milioni di euro a quasi 8mila studenti. Poi partono le verifiche per controllare che nessuno abbia fatto il furbo. Fino a qualche anno fa i controlli toccavano appena il 20 per cento degli assegnatari. Adesso si è deciso di cambiare rotta: «Abbiamo visto che c'erano risorse che andavano sprecate. Così nel 2006 si è stabilito di estendere i controlli a tutti», racconta Pellerino. Il risultato? Più verifiche, più pizzicati. Nel 2005/2006 erano stati 245, il 4 per cento di quelli passati al setaccio, la metà del totale; l'anno dopo 358, ma i controlli sono stati a tappeto e hanno riguardato tutti i beneficiari. Per ognuno degli irregolari la procedura è spietata. «La borsa viene immediatamente revocata e viene anche inflitta una sanzione pari al doppio dell'importo originariamente erogato», spiega la presidente Pellerino. Morale: quasi 5 milioni di euro recuperati in due anni tra revoche e multe, più una sfilza di denunce recate in Procura. Così è successo, ad esempio, a quello studente la cui famiglia ha dichiarato come patrimonio immobiliare un solo alloggio, omettendo di segnalarne altri due. Pizzicata dagli 007 dell'Edisu, e costretta a giustificarsi, anziché battere in ritirata, si è difesa candidamente: «Ma noi viviamo solo in uno dei tre appartamenti». _____________________________________________________ L’Espresso 12 feb. ’09 WEB PARLA BENE DI ME E boom per i servizi che rifanno la reputazione on line. Cancellando video compromettenti, informazioni o foto che non ci piacciono. Ecco come funzionano DI VALENTINA ARCOVIO Se è difficile riuscire a ripulire la propria reputazione da un gossip imbarazzante che gira in ufficio o tra amici, figuriamoci come può essere complicato far cadere nel dimenticatoio una macchia che circola incontrollata sul Web. () Un'informazione troppo personale che può essere vista da tutti, indiscriminatamente. L'ideale sarebbe riuscire a "ripulire" la propria immagine virtuale. È un po' come rifarsi il look: solo che non occorrono né stilisti e né chirurghi, ma un'équipe specializzata di programmatori, hacker ed esperti di social network. Per avere infatti una buona reputazione virtuale è necessario che siano i tecnici a nascondere e cancellare i difetti e le malevolenze che possono intaccarla. Una foto imbarazzante o un dato personale, quando vengono messi in Rete, sono alla mercé di chiunque. Ad esempio, di un ex fidanzato vendicativo: è quello che è successo ad Erika, una ragazza di 35 anni di Baltimora che dopo essersi lasciata alle spalle una storia si è ritrovata il Weh pieno di immagini che ne mostravano particolari un po' troppo intimi. Se il fidanzato vendicativo puo’ sembrare poca cosa, pensate a cosa può accadere se a mettere mano sulle vostre informazioni sono un collega invidioso che vuole soffiarvi la promozione o un datore di lavoro previdente che prima di assumervi cerca informazioni su di voi tramite Google. Pensate alla reazione del vostro capo quando scopre che su internet gira un vostro video compromettente. Daniel, ex studente di un'università britannica, immortalato in un clip a luci rosse girato da ragazzo durante una festa goliardica fatta tra amici, per tre anni non è riuscito a trovare lavoro nonostante abbia ottimi voti e referenze. «Ogni volta che inviavo il mio curriculum a un'azienda-, racconta, «sapevo che sarebbe bastato inserire il mio nume e cognome su Google per far saltare fuori quel video imbarazzante. Logico che la risposta fosse sempre la stessa: "Siamo spiacenti ma lei non è adatto a questo tipo di impiego" ». Del resto, sono sempre di più i datori di lavoro che prima di un via libera all'assunzione si fanno un giretto su Google. Negli Stati Uniti circa il 70 per cento delle persone cerca lavoro attraverso Internet e più della metà di queste non è stata assunta per via di una cattiva reputazione virtuale. Non stupisce che in tutto il mondo sia scoppiato un vero e proprio boom di società che "ripuliscono" il profilo dell'utente on line. Hanno nomi come Repuration Defender, Claimld, Trust Plus e sono tra i pochi servizi Web che, in una fase di crisi come questa, vedono i propri profitti crescere verticalmente. Leader indiscusso di questo mercato emergente è senza dubbio la società californiana Reputation Defender, fondata due anni fa dal trentenne Michael Fertik. Pub essere definita come una vera e propria "spugna virtuale" che cancella le macchie della reputazione on line. Oppure, come lo hanno battezzato in molti, ima "Google insurance", un'assicurazione contro la diffusione dannosa dei nostri dati sul motore di ricerca più famoso del mondo. Dopo aver fondato a 19 anni una società di software dal valore di 7 milioni di dollari e una breve esperienza di lavoro con un giudice federale, Fertik, 30 anni ed ex studente di Harvard, ha avuto l'intuizione di creare un servizio di pulizia dell'immagine virtuale, cavalcando l'onda favorevole di un vuoto giudiziario in materia di diffamazione o violazione della privacy su Internet. Un'intuizione che ha permesso alla sua società in soli due anni di attività di trasformarsi in una gallina, la Reputation Defender può vantare un fatturato di circa ?Z milioni di dollari. A fine 2007 il ricavato delle vendite del servizio, secondo i dati diffusi dalla rivista "Forbes", era di 5,5 milioni di dollari. Nei 2008 siamo cresciuti del 100 per cento, spiega soddisfatto Fertik: «E il nuovo anno è iniziato ancora meglio. Al momento, anche per noi è addirittura difficile farne una stima precisa di quello che fattureremo nel 2009». I richiedenti arrivano da ogni latitudine: «Vantiamo un giro di clienti», dice Fertik, «che proviene da oltre 40 paesi diversi. Se c'è una cosa che ho imparato dalla mia società è che, per quanto gli americani hanno cura della loro privacy e della loro reputazione, ci sono popoli che ci tengono molto più del nostro». Compresi gli italiani: « Abbiamo avuto centinaia di richieste dal vostro Paese». Incluse, a quanto pare, quelle di alcuni uomini politici. La società californiana offre agli utenti la possibilità di scegliere tra un vasto assortimento di pacchetti, tutti con prezzi diversi. C'è il pacchetto NEWeputation, ad esempio, che al costo di 14,95 dollari al mese o 1-55,40 dollari all'anno individua ed elimina tutte le informazioni imbarazzanti sul conto dell'utente («Funziona veramente: finalmente mi sono riuscita a liberare delle foto e delle lettere che il mio ex ha diffuso su Internet e che per quasi due anni hanno macchiato la mia immagine virtuale», dice Erika). Per chi invece non ha nulla di cui vergognarsi, ma vuole soltanto proteggere le sue informazioni personali da occhi indiscreti o da truffatori, è disponibile il pacchetto l',v1vprivacy che, al costo di 9,95 dollari al mese o di 95,40 dollari all'anno offe all'utente la possibilità di cancellare tutti i dati personali diffusi da banche dati o da siti a mi ci si è precedentemente iscritti rilasciando informazioni personali. È il caso di chi si è iscritto a siti di social network, come Facebook o MySpace, o di chi ha fatto acquisti on line con la carta di credito. Cancellare le nostre tracce dal Web significa proteggersi dai furti d'identità, dal pericolo che qualcuno utilizzi i dati della nostra carta di credito, dal rischio che le aziende interessate intasino la nostra posta elettronica di messaggi pubblicitari "cuciti" sui nostri dati o che qualcuno ci perseguiti utilizzando il nostro numero di telefono o indirizzo di casa. Per chi invece è preoccupato della reputazione virtuale di suo figlio che naviga quotidianamente su Internet, i tecnici californiani mettono a disposizione dei genitori il pacchetto :MyWhild che per 14,95 dollari al mese o 15-5,40 dollari all'anno offre la possibilità di cancellare le tracce virtuali del proprio bambino. Ancora più innovativo è il pacchetto MvEdge che al costo di 99 dollari all'anno consente all'utente di costruirsi ex novo una reputazione virtuale su misura. Gli utenti hanno quindi la possibilità di manipolare i propri dati su Internet per dare di sé la migliore immagine possibile. In pratica, Reputation Defender consente all'utente di gestire i risultati di un motore di ricerca quando la parola chiave inserita è proprio il suo nome e cognome. I tecnici californiani utilizzano i dati che è lo stesso utente a segnalare, li "vestono graficamente" rendendoli più accattivanti e, dopo l’ok dell'utente, li inseriscono nei motori di ricerca in modo tale che chiunque provi a cercare informazioni sull'utente riceva come risultati proprio quelli scelti e abbelliti precedentemente. «La maggior parte dei nostri clienti», racconta Fertik, «non ha in realtà nessun problema particolare. Quello che vogliono è prendere il controllo della propria reputazione sui motori di ricerca conte Google. Sanno cioè quanto è importante oggi avere un buon curriculum on line». _____________________________________________________ Il Sole24Ore 12 feb. ’09 VENTIMILA LEGHE SOTTO I GHIACCI Scienza e avventura caratterizzano la spedizione che parte a fine febbraio e che attraverserà tutto l'Artico DA LONDRA NICOLa DEGLI INNOCENTI Scienza e avventura non sono mai state così strettamente legate: parte a fine febbraio una spedizione di esploratori che per tre mesi attraverseranno i ghiacci dell'Artico fino ad arrivare al Polo Nord. La missione ha l'obiettivo di misurare passo passo per tutti i 1.300 chilometri del viaggio lo spessore dei ghiacci per determinare in modo oggettivo e scientifico con quanta rapidità si stiano sciogliendo. Secondo le ultime rilevazioni, nel 2007 restavano 4,3 milioni di chilometri quadrati di ghiacci, un rapido calo del 20 %rispetto al 2005. Se il trend continua, entro pochi anni i ghiacci spariranno dall'Oceano Artico, lasciando solo acqua per la prima volta da oltre un milione di anni. Le stime degli esperti sulla data in cui questo avverrà però fluttuano drasticamente, dalla previsione più pessimistica del 2023 a quella più ottimistica del 2100. La nuova missione potrà mettere fine al dibattito con dati scientifici grazie a un'arma segreta: un radar a impulsi ultracompatto, capace di penetrare i ghiacci più spessi ma con un peso di appena 4 chili. Si chiama Sprite, che sta per «Surface penetrating radar for ice thicknèss establishment» ma che in inglese significa anche "folletto". Non c'è nulla di magico nel suo operato, spiega Michael Gorman dell'Università di Cambridge, l'ingegnere che ha inventato il nuovo strumento: «Finora le rilevazioni dello spessore dei ghiacci sono state effettuate dall'alto„ dai satelliti, oppure dal basso, da sottomarini, ma non sono mai accurate. Questo radar è invece in grado di misurare la densità, distinguendo tra ghiaccio e neve compatta, e per la prima volta fornirà una rilevazione certa e continua per tutto il percorso». I tre esploratori, tutti quarantenni veterani del Polo Nord, traineranno su una slitta il radar, che ogni dieci centimetri rileverà lo spessore del ghiaccio e trasmetterà i dati al centro specializzato della Naval postgraduate school di Monterey, in California. Il professore di Oceanografia Wieslaw Maslowski, che da 27 anni raccoglie informazioni sui ghiacci dell'Artico, analizzerà i nuovi dati e presenterà poi le sue conclusioni intorno a'settembre. I risultati della missione verranno poi presentati e discussi alla Conferenza mondiale sul clima delle Nazioni Unite a Copenaghen a dicembre, con l'obiettivo di stabilire un piano concreto di intervento. Nel team ognuno ha il suo compito. Pen Hadow, uno' dei più celebri esploratori britannici, è il direttore del progetto e ha il compito di trivellare il ghiaccio, effettuare le rilevazioni, misurare la temperatura e profondità dell'acqua e caricare i dati sul computer di bordo. Ann Daniels, che in passato ha guidato un team tutto femminile fino al Polo Nord, è la navigatrice responsabile di stabilire e mantenere la rotta che li porterà da 80 gradi nord a 140 gradi ovest. Martin Hartley, fotografo del National Geographic, terrà un diario video della spedizione e invierà foto tutti i giorni, anche se le comunicazioni sono estremamente difficili intorno al Polo Nord a causa dello scarso numero di satelliti Iridium. La missione è la più difficile di tutte quelle intraprese finora, afferma Hadow, che pure è l'unica persona al mondo ad avere camminato da solo e senza sostegno esterno dal Canada al Polo Nord. Le condizioni sono proibitive: la temperatura raggiungerà i -55 gradi e non salirà mai sopra gli zero gradi, mentre gran parte del viaggio verrà fatto al buio e ci saranno sia montagne di ghiaccio da scalare che tratti di acqua gelida da attraversare. «Ma non possiamo permetterci di fallire, questo progetto è troppo importante - afferma Hadow -. È una questione di orgoglio professionale raccogliere tutti i dati possibili, che possono essere raccolti solo da esploratori in loco. Si tratta di usare la nostra esperienza per la scienza, per contribuire a un progetto di enorme importanza per la Terra». Ann Daniels dichiara che là sua motivazione è «aiutare il pianeta a sopravvivere, per i miei quattro figli e per tutti gli altri bambini del mondo». L'ipotesi da confermare, spiega Hadow, è che non sia il riscaldamento dell'aria dovuto al gloUal warming a scogliere i ghiacci dall'alto ma piuttosto l'aumento della temperatura dei mari che sciolgono i ghiacci dal basso: «Una sorta di effetto vulcano, meno drammatico di un'eruzione ma altrettanto deleterio». _____________________________________________________ Il Sole24Ore 12 feb. ’09 QUI TERRA: PUNTO DI NON RITORNO L'effetto serra ha ormai cambiato volto al pianeta DI GUIDO ROMEO' Il cambiamento climatico è già oltre il punto di non ritorno. Impensabile invertirne l'andamento, almeno per i prossimi secoli, perché ciò che decideremo oggi potrà solo cercare di mitigarne gli effetti. Questo è il quadro, non certo allegro, che ha recentemente disegnato Susan 'Solomon, "chief scientist" del Noaa, la prestigiosa agenzia Usa per il monitoraggio degli oceani e dell'atmosfera. Un quadro che ribadisce l'importanza delle due aree polari e degli oceani nel regolare la complessa termodinamica della Terra. Questo gigantesco radiatore planetario sembra però ormai' irreversibilmente messo in crisi dalle alte concentrazioni di CO2, nella nostra atmosfera. «Il nostro studio mostra che le scelte che si fanno oggi in termini di emissioni di CO2 avranno ricadute che cambieranno irreversibilmente la faccia del nostro Pianeta per almeno i prossimi mille anni», sottolinea senza mezzi termini la scienziata statunitense, che è tra l'altro una delle figure di punta dell'Ipcc, il panel intergovernativo sui cambiamenti climatici. Che la CO, riversata in atmosfera può rimanervi per migliaia d'anni è un fatto noto da tempo, ma i risultati di Solomon gettano una nuova luce sulle conseguenze a lungo termine. Lasciare chela concentrazione di anidride carbonica, cresciuta dalle 280 parti per milione (ppm) dell'inizio dell'era industriale alle 38o di oggi, arrivi fino a 480 o addirittura 60o ppm. In realtà questo processo è già ben visibile proprio nelle zone polari. Insieme agli oceani i ghiacci si riscaldano rallentando l'innalzamento di temperature, proprio come farebbe l'impianto di raffreddamento di un motore, ma mostrano la corda. AL punto che nei prossimi secoli gli oceani rischiano addirittura di cominciare a lavorare in senso opposto, mantenendo il calore invece di raffreddare. Quanto rapide possano essere queste inversioni lo mostrano anche il continuo restringimento della banchisa. artica chelia perso oltre il 30% di massa rispetto al 1979, ma anche gli ultimi dati provenienti dal Polo Sud. In «Nature» Eric Steig ha finalmente chiarito il rompicapo delle temperature più fredde delle zone più interne dell’Antardide in assoluta controtendenza rispetto a quello che sta succedendo nella Penisola antartica che si estende verso il Sudamerica. Il raffreddamento, fino a poco tempo fa inspiegabile, sarebbe dovuto al cosiddetto "buco nell'ozono" che provoca dei venti occidentali circumpolari più forti sulla parte occidentale del continente. Un'ambiguità che era diventata un'argomentazione per gli scettici del cambiamento climatico e una spina nel fianco per u climatologi: L'analisi di Steig ha fatto tesoro dei dati rilevati dai satelliti, i quali stanno offrendo maggiori possibilità di analisi dei fenomeni e ha tagliato il nodo. La sua ricostruzione delle serie di temperature mostra invece che nell'ultimo mezzo secolo vi è stata una tendenza al riscaldamento non solo nella Penisola Antartica, ma anche nella calotta Occidentale e in quella Orientale: «È un riscaldamento in linea con quanto avvenuto nel resto dell'emisfero meridionale - sottolineano gli esperti - difficile da spiegare senza un incremento della forzante solare associato all'aumento di concentrazione dei gas serra». Le tendenze future delle temperature sull'Antartide dipenderanno anche da come le variazioni di composizione dell'atmosfera influenzeranno la quantità di ghiaccio marino dell'emisfero australe e la circolazione atmosferica regionale, ma lo scenario, secondo Solomon, rischia di diventare letteralmente bollente. Lasciare che la CO, nell'atmosfera aumenti ai ritmi attuali fino a livelli tra t48o e i Goo ppm, sarebbe l'equivalente di infilare un cacciavite nel radiatore della propria auto. In meno di un secolo l'Europa meridionale, e quindi proprio la fascia mediterranea dove si trova anche l'Italia, vedrebbe una riduzione di precipitazioni e inaridimento a livello del Nord Africa, del Sud Ovest americano o dell'Ovest dell'Australia. Uno scenario drammatico, per scongiurare il quale le tecnologie e le soluzioni disponibili oggi non sembrano certamente sufficienti, tanto più che il taglio delle emissioni continua a incontrare una forte resistenza da parte di molti Paesi in questo momento di crisi. La proposta più radicale, ma anche più innovativa, è arrivata recentemente da James Lovelock, scienziato ambientalista ideatore dell'ipotesi di "Gaia", che propone di puntare sull'energia nucleare per i prossimi 20-3o anni mentre si sviluppano energie pulite di nuova generazione, ma soprattutto sottrarre CO2 dall'atmosfera su grande scala. Come? Con la tecnologia più vecchia del mondo, l'agricoltura. «La biosfera assorbe 55° gigatonnellate di CO2, ogni anno, mentre l'uomo è responsabile dell'emissione di circa 30 - ha spiegatolo scienziato -.Basterebbe bruciare in assenza di ossigeno una quota di residui agricoli e forestali trasformandoli in carbone e seppellirli, per ridurre la CO2, in atmosfera senza sussidi e con effetti benefici per il terreno». _____________________________________________________ Il Sole24Ore 12 feb. ’09 IL BELLO DELL'INSTABILITÀ La fragilità colpisce in fasi di crisi. Ma crea opportunità in ripresa. L'opposto per la staticità DI GUIDO ROMEO L’instabilità fa bene alla crescita e all'innovazione. Può suonare come un paradosso nel bel mezzo di una crisi come quella attuale, innescata proprio dal collasso imprevisto del sistema finanziario americano, ma è ciò che emerge dall'ultimo lavoro di un agguerrito gruppo di econofisici che ha meritato la copertina di «Pnas», la rivista dell'Accademia delle Scienze statunitense e vede in prima linea due italiani - Massimo Riccaboni e Fabio Pammolli, rispettivamente direttore del Cerm e docente presso l'Università di Trento e direttore dell'Imt di Lucca e del Cerm-in collaborazione con un gruppo di fisici della Boston University coordinato da Gene Stanley. Il gruppo ha costruito un modello economico basato su una legge di potenza, un'equazione che ha il pregio di rimanere valida anche cambiando scala di grandezza, che descrive la relazione tra la dimensione dei sistemi economici e la crescita delle singole aziende, ma anche del Pil nazionale. «In realtà abbiamo fatto una cosa molto semplice-minimizza Stanley, da tempo in odore dì Nobel per il suo lavoro sulle fluttuazioni nei sistemi complessi più diversi, dalla fisica alla biologia per arrivare all'economia — Abbiamo guardato a tutti i dati disponibili per le aziende, dagli andamenti di Borsa, al numero di dipendenti a quello degli inventari. Sono veramente tantissimi, e credo che questo sia il pregio di un approccio mutuato dalla fisica perchè gli economisti tendono a guardare solo a parti di sistemi, trascurando eventi rari, ma di grande peso. La matematica che ci ha permesso di dare un senso a questa enorme massa di dati è però stata sviluppata da Riccaboni e Pammolli». Il lavoro è scritto in termini matematici difficilmente decodificabili dai non addetti ai lavori, ma la parsimonia delle sue assunzioni di Uase lo rende intuitivamente molto semplice. «Il nostro modello mostra come un'azienda, ma lo stesso può dirsi di un settore e di un sistema Paese, cresca sostanzialmente in due modi - spiega Pammolli -: attraverso i prodotti esistenti oppure catturando nuove opportunità, che possono essere mercati, nuove tecnologie o nuove applicazioni, come quelle tipicamente legate al mondo dell'innovazione. Queste, una volta catturate, si espandono seguendo un moto Urowniano, analogo a quello osservato in piccole particelle pesanti nei fluidi». I ricercatori mostrano inoltre che la capacità di un'azienda o di un settore di trasformare un'innovazione in successo di mercato le consentono di crescere rapidamente generando forti asimmetrie nel sistema. È il caso tipico dei settori tecnologici e "science Uased" dove casi come Microsoft, o più recentemente Google, hanno conquistato rapidamente grandi fette del proprio settore. «La distribuzione normale, secondo la classica curva di Gauss a campana è del tutto fuorviante, in questo caso, per correlare taglia di aziende e solidità del sistema - osserva Riccaboni-perché questi campioni costituiscono delle vere e proprie "code grasse", casi rari, ma che hanno un grande peso sul sistema». Questo significa anche che il Pil di un Paese è legato, molto più di quanto le teorie tradizionali lascino pensare, all'andamento di alcuni settori molto rilevanti. In questa prospettiva, avere un sistema economico nel quale queste "code grasse" (letteralmente, i rami della curva a campana) sono molto rilevanti aumenta la sua instabilità. È il caso degli Stati Uniti alle prese con la recente crisi economica, nel quale il collasso di alcuni campioni nazionali ha innescato una reazione a catena. Se la matematica non mente, l'incertezza dei colossi sarebbe perciò molto più grande di quanto ci si aspetterebbe. Secondo i ricercatori infatti, anche all'interno di gruppi molto grandi e diversificati, la crescita è molto meno stabile di quanto si tenda a pensare poiché arriva in realtà da pochi prodotti di punta. «L'altra faccia della medaglia che oggi forse tendiamo a considerare m misura minore -- osserva Pammolli- è che sistemi più statici, come quello italiano, dove le piccole e medie imprese con difficoltà crescono rapidamente generando nuove asimmetrie come vediamo oltreoceano, sono molto meno aperti alla cattura di nuove opportunità e quindi tendono a essere tra gli ultimi vagoni nel treno della crescita». Ma al di là delle considerazioni sui sistemi economici quali sono le applicazioni pratiche di questo modello, che dà un'ulteriore spallata, se ce ne fosse bisogno, alle teorie del portafoglio di Black-Scholes e alle assunzioni fondamentali di aggregazione dei sistemi? «Il modello è descrittivo e non permette ancora di fare previsioni - avvertono i due ricercatori italiani -, ma sottolinea l'importanza dell'interconnessione dei mercati, come già fatto egregiamente da altri economisti come Alberto Alesina e Francesco Giavazzi, per aumentare le possibilità di crescita di un sistema economico. L'Italia, ad esempio, ne beneficerebbe moltissimo nel settore delle energie rinnovabili, che si può considerare strategico vista la sua carenza di risorse fossili». «Credo che la lezione più importante di questo modello, come di tutto l'approccio econofisico in fondo sia la dimostrazione che, se in economia ci sono leggi scientifiche, allora non capiamo sempre tutto ciò che succede, esattamente come in fisica e in biologia - osserva Stanley -ciò dovrebbe insegnarci rispetto e molto più cautela nel maneggiare le teorie classiche». guidoromeo.novaioo.ilsolezqore.com/ www.cermlab.it il fisico di Boston. Gene Sta nley, 68 anni, coordinatore del team della Boston University _____________________________________________________ Il Sole24Ore 12 feb. ’09 IL DONO DELLA RICERCA Filantropia nella scienza si fa strada tra Stato e mercato DI ALESSIA MACCAFERRI Un impianto di distribuzione del metano per gli autobus comunali ma anche al servizio dei cittadini che fanno una scelta ambientale. Il tutto con un piano finanziario che punta alla auto sostenibilità e al ritorno dell'investimento, in modo che il capitale possa essere riutilizzato diversamente. Il progetto non è finanziato né da un'azienda di tecnologie sostenibili, né da un amministratore in campagna elettorale, come si potrebbe supporre. «Nessun privato avrebbe trovato redditizio investire in questo settore marginale - spiega Angelo Miglietta, segretario generale dì Fondazione Crt, che investirà nel progetto nel Canavese. Noi non possiamo alterare la concorrenza dei privati e non dobbiamo andare nei settori interessanti per il mercato. Allo stesso tempo non dobbiamo essere sostitutori di spesa pubblica». Questa zona grigia tra il mercato e lo Stato dà un lusso: sperimentare logiche diverse dal profitto e dall'erogazione a fondo perduto. Uno spazio di innovazione che ai confini ha due paletti: il valore collettivo e gli stakeholder, ovvero tutti i portatori di interessi (beneficiari, associazioni, enti locali): E ora che la filantropia diventa la nuova porta a cui bussare quando i fondi per la ricerca si assottigliano, i confini diventano più rigidi. Come un'azienda che deve presentarsi di fronte all'assemblea degli azionisti o come un Comune che deve essere giudicato dagli elettori, la filantropia deve rendere conto agli stakeholder. base di questa rendicontazione- garanzia di trasparenza - c'è la valutazione. Telethon, tra i maggiori finanziatori di ricerca in Italia (con 32 milioni di èuro nel 2007) è partita proprio dai suoi stakeholder, cioè i malati e i loro familiari. Nel caso di questa fondazione che organizza ogni anno la raccolta fondi a favore della ricerca sulle malattie genetiche, la selezione è centrata sulla peer-review; strumento di imparzialità di giudizio. «La Commissione scientifica di 30 persone di cui il 90% lavora all'estero - spiega Lucia Monaco, direttore scientifico di Telethon - effettua una prima scrematura, in base a criteri come rispondenza al bando, fattibilità, completezza, originalità. In genere viene scartato un terzo dei progetti». I restanti vengono sottoposti prima all'esame di due referee stranieri, esperti del settore, poi di tre revisori della Commissione scientifica. E «il revisore conosce l'identità del candidato, mentre quest'ultimo non sa chi lo valuta» precisa Monaco. L'anno scorso è stato finanziato il 60% dei progetti. Fino a pochi anni fa le fondazioni ex bancarie si affidavano a commissioni interne. «Ora stiamo elaborando delle linee-guida per i bandi di ricerca basati su peer-review - spiega Andrea Landi, presidente della Commissione ricerca scientifica di Acri, -Le fondazioni grandi e medie stanno. adottando la cultura della peer-review. Un altro obiettivo è arrivare a condividere un'unica banca dati nazionale dei revisori esterni. «La peer-review, come i sistemi di citazioni, hanno na componente conformista crescente aggiunge Miglietta-. Alla valutazione a priori noi preferiamo la valutazione del mercato, cioè la valutazione dell'efficacia e dell'efficienza che si misura sul terreno della concorrenza tra diversi soggetti filantropici». Per esempio, attraverso lo strumento del cofinanziamento. O la sostenibilità e autonomia del progetto. La valutazione non si limita alla selezione dei progetti. Nella filantropia comincia` a prendere terreno la valutazione dei risultati. La britannica Wellcome Trust - la prima charity ìn Europa con 77o milioni di euro di erogazioni - sta rinnovando il suo processo di valutazione. «Recentemente abbiamo introdotto la nuova politica che richiede a tutti i nostri ricercatori di pubblicare in open access, spiega David Lynn, a capo della Pianificazione strategica - I ricercatori finanziati devono depositare una copia delle loro pubblicazioni in open access al Uk PubMed». Nella valutazione expost, la fondazione ha adottato lo strumento del Researchers Profile: «Per un numero selezionato di ricercatori ogni anno il Trust crea una banca dati dei risultati e del loro impatto, disponibile sul nostro sito. Per ogni ricercatore c'è una storia e con un approccio narrativo, non solo quantitativo, vengono raccontati i risultati» aggiunge Lynn. Ma come valutare l'impatto di un intervento? «Se una fondazione sostiene di avere incrementato di un x per cento il Pil di un'area - spiega Gianpaolo Barbetta, responsabile Unità strategica per la filantropia di Fondazione Cariplo, come può dimostrarlo? Magari senza quel progetto l'economia locale sarebbe cresciuta di più. Allora perché l'analisi di impatto sia sensata va strutturata sin dall'inizio. Noi stiamo sperimentando uno studio randomizzato». Tl randomized controlled trial è una tecnica comune nell'industria farmaceutica, che ora verrà applicata a un progetto sociale: sì vuole verificare se la figura del tutor sul luogo di lavoro per i malati psichici sia efficace per mantenimento di un'occupazione. A un gruppo di 150 persone viene offerto un servizio di tutoraggio, ad altre i5 o no (campione di controllo): Se la figura del tutor funziona, la Fondazione Cariplo la proporrà come strumento modello alla Regione Lombardia per le politiche dell'occupazione. In Gran Bretagna il cerchio della valutazione si sta chiudendo con l'analisi dell'impatto sull'intera società: lo scorso novembre è stato reso pubblico un report sull'impatto economico della ricerca medica finanziata dalla filantropia e dallo stato. I cittadini inglesi ora sanno, per esempio, che per ogni sterlina versata da un contribuente o da un donatore per la ricerca sulle malattie cardiovascolari e la salute mentale, c'è un ritorno ogni anno tra i 37 e i 39 centesimi. Almeno sapranno che i soldi sono stati spesi a fin di bene, e bene. ======================================================= _____________________________________________________ La Stampa 12 feb. ’09 IL BLUFF DEI VACCINI PROMOSSI DALLE RIVISTE MARCO ACCOSSATO TORINO Le manipolazioni dell'informazione scientifica Gli studi sui vaccini anti-influenzali commissionati dall'industria godono di «migliore stampa» rispetto a quelli sponsorizzati dai governi. Sulle riviste scientifiche internazionali «le ricerche private hanno tutte verdetti più favorevoli, anche quando i risultati obiettivi non giustificano tali conclusioni». Non solo: «Gli studi sponsorizzati dall'industria vengono pubblicati più di quelli commissionati non da case farmaceutiche». Sette anni dopo un clamoroso appello pubblicato in contemporanea da 12 riviste scientifiche sul malsano rapporto tra metodologia, etica e sponsor nelle ricerche biomediche, le pagine di molti prestigiosi giornali finiscono adesso sotto accusa. Tutte al soldo degli interessi delle case farmaceutiche? Uno studio condotto dal servizio di Epidemiologia di Alessandria su commissione della Regione Piemonte e dal Ccm, il Centro controllo malattie del ministero della Salute, rivela come molte delle testate considerate «vangelo» per la comunità scientifica non sono così autorevoli né selettive, quando si tratta di lanciare nuovi prodotti sul mercato. La ricerca, coordinata dall’epidemiologo Vittorio Demicheli, ha richiesto anni di lavoro e sarà da stanotte online sulle pagine del «British Medical Journal». Lo scorso anno già il «New England Journal of Medicine», l'altra autorevole testata di medicina, aveva pubblicato un analogo articolo-inchiesta sull'efficacia sopravvalutata di certi antidepressivi. Gli epidemiologi piemontesi hanno analizzato 274 studi sui vaccini anti- influenzali pubblicati dal 1948 a oggi. Sentenza? «Ci sono nette discrepanze tra i risultati d'efficacia e le conclusioni descritte». Conclusioni eccessivamente favorevoli «non dipendono dalla qualità né dal numero di studi approfonditi, ma piuttosto dai fondi a disposizione di questa o quell'industria». Una stortura sufficiente a far lievitare l’«impact factor» di riviste e ricercatori, ma che di fatto inganna medici e malati. PubMed, Cochrane Library, Embase: tutti gli archivi più importanti, anche sul Web, sono passati al setaccio della task-force piemontese, senza limitazioni di lingua. Studi che hanno messo a confronto i risultati delle somministrazioni di vaccini contro gli effetti di iniezioni placebo. Un'immensa lente di ingrandimento che ha portato a una conclusione disarmante e allarmante. Un esempio per tutti: «Due studi statunitensi - ricorda Demicheli - avevano come obiettivo paragonare l’efficacia di un siero su mille bambini. Nell'articolo sulla rivista scientifica i risultati erano messi a confronto con i dati di sicurezza su un campione di 100 bimbi. Immediatamente è stata segnalata al giornale la sproporzione del raffronto, ma non si è avuta risposta. L'autore dell'articolo ha poi ammesso che la proprietà dei dati della ricerca era della casa farmaceutica produttrice del vaccino, e questa aveva impedito la pubblicazione di alcuni dei dati di sicurezza». Della vicenda si sta occupando il governo americano, «ma – dicono a Torino - si tratta soltanto di uno degli esempi possibili che ci portano a ribadire che i ricercatori devono essere liberati dalle condizioni capestro imposte dalle industrie». Il potere delle industria - denuncia la ricerca che sarà pubblicata su «Bmj» - ha fatto addirittura raddoppiare l’«impact factor» medio di alcuni vaccini, facendoli salire da 3,74 a 8,78, con 58 citazioni su altre riviste. «Migliaia di queste riviste - osserva il dottor Demicheli - dipendono ormai da quattro 0 cinque grandi gruppi, che riprendono studi pubblicati o pubblicano ricerche minori non accettate dalle testate più importanti dello stesso gruppo». E il fattore di impatto cresce. «C'è un trend preoccupante - rivela infine l'indagine condotta anche da Toni Jefferson, Carlo Di Pietrantoni, Maria Grazia Debalini e Alessandro Rivettinegli ultimi anni questo preoccupante fenomeno è in costante crescita». SOTTO ACCUSA IL RUOLO OCCULTO DELL'INDUSTRIA FARMACEUTICA I RISULTATI «Forti differenze tra gli effetti reali e quelli annunciati» 62Mila malati PIÙ A RISCHIO I BIMBI - la fascia d'età più colpita dall'influenza in Italia resta quella da zero a 4 anni 40Mila vittime -I CASI IN EUROPA Sono i morti causati dall'influenza stagionale ogni anno 1986 Campioni - VIRUS AGGRESSIVO Sono i campioni di virus del tipo A isolati fino a marzo 2008 _____________________________________________________ Il Gazzettino 12 feb. ’09 IL MEDICO CHE FA L'ARCHEOLOGO DEI TUMORI di Daniela Boresi Cosa hanno in comune la Storia e la Biologia molecolare? Molto più di quanto si possa credere, visto che proprio grazie ad una precisa indagine a ritroso fatta negli archivi di decine e decine di Comuni del Nordest si è riusciti a scoprire che alcune famiglie hanno una familiarità molto accentuata con una rara forma di tumore. Gli investigatori della genetica lavorano allo Iov, l'Istituto oncologico veneto, e per scoprire una anomalia, in un determinato gene, hanno scomodato addirittura gli avi dei pazienti contemporanei, arrivando in un caso, persino al 1400. Così la mutazione di un gene predispone all'insorgenza della malattia Una ricerca scientifica, quella messa a punto dall'Unità dei Tumori ereditari dell'Istituto oncologico veneto, diretta dal professor Giuseppe Opocher (nella foto sotto) in collaborazione con l'Unità operativa di endocrinologia dell'Azienda ospedaliera di Padova, che non ha molti precedenti e che apre uno scenario tutto nuovo, come spiega il professor Opocher, sia per le possibilità di cure, sia per l'originalissimo percorso che ha attinto dalla scienza e dall'investigazione storica. La mutazione del gene "Menl" riscontrata in una famiglia trevigiana predispone all'insorgenza di tumori del sistema endocrino. «Non si tratta di tumori maligni - spiega il professor Opocher - ma sono comunque patologie particolarmente pesanti. E scoprire se la persona abbia o meno l'anomalia è fondamentale, visto che chi ne soffre ha quasi il 100 per cento di possibilità di ammalarsi nel corso della propria vita». Come spiega lo scienziato si tratta per tutti i casi di tumori benigni delle paratiroidi, o dell'ipofisi, sempre non maligni o del pancreas. Questi ultimi sono un po' più pesanti, ma permettono comunque ai pazienti di convivere con la patologia. La genesi della scoperta è quanto meno curiosa. «Avevamo osservato che alcuni pazienti con queste malattie presentavano la stessa mutazione, che era già stata descritta in Francia. - spiega il professor Opocher - Abbiamo così valutato persone appartenenti ad altre famiglie che dimostravano la stessa mutazione, fino a quando grazie ad una paziente anziana che aveva una fervida memoria siamo riusciti ad andare indietro e, con gli archivi dei Comuni, ricostruito la vita di queste famiglie fino ai 1700». Sono state individuate 111 persone che si trovano nell'albero genealogico, 29 sono state sottoposte ad indagine molecolare e 20 hanno mostrato l'anomalia. In testa a questa "catena" trevigiana ci sono sei fratelli, due dei quali hanno dato origine alle famiglie che poi hanno manifestato la mutazione genetica. Adesso gli scienziati sono "a caccia" dei rami familiari che portano agli altri quattro fratelli per verificare come il gene si è successivamente distribuito. Insomma, la storia è venuta in aiuto alla scienza. Ma non solo le vicende avverse delle famiglie e dei rispettivi antenati, anche la "vita del territorio" può offrire spunti impensabili. E' il percorso di un altro studio e di un altro gene modificato. Questa volta il teatro è il Trentino Alto Adige e le radici affondano addirittura fino al 1400. «In questo caso le famiglie interessate sono 75 e sappiamo che l'antenato "incriminato" è del 1400. - spiega il professor Opocher - E sappiamo anche che è arrivato in una certa valle dove ha dato vita ad una comunità». Anche in questo caso i biologi molecolari hanno messo da parte per un po' il microscopio e si sono concentrati su archivi parrocchiali o uffici comunali. La terza storia rischia di essere ancora più suggestiva, perchè oltre alla terraferma, scandaglia quanto avvenuto su un transatlantico che portava gli emigranti in terra straniera. «Siamo riusciti a sapere che un signore di Favaro Veneto ha preso un certo piroscafo e ha dato vita ad una nutrita comunità in Brasile - aggiunge il professore - Famiglie che hanno riscontrato poi nel tempo la mutazione di un gene». Certo conoscere in anticipo il male che potrebbe colpirci in futuro è una bella fortuna. «Chi sa di avere ad esempio il gene "Men1" mutato farà i controlli a tempi prefissati e sorveglierà tutti i segnali avversi - precisa il ricercatore - E se dovesse comparire qualche problema metterà in atto la cura più appropriata». Insomma, gli "investigatori della genetica" possono davvero cambiarci la vita. Daniela Boresi ________________________________________________________________ Il Sole24Ore 12 feb. ’09 TRUFFE MILIARDARIE E GESTIONE ALLEGRA DERUBANO IL SSN Farmindustria lancia l'allarme anti-sprechi - Dompé: «Servono scelte determinate per salvare il sistema» - Convegno a Roma mentre esplode l'affaire Angelucci Gdf: personale e appalti ad alto rischio - Nas: 3mila sequestri di farmaci nel 2008 - Controlli interni e sanzioni light i punti deboli Tirare le somme è sempre difficile. Ma - euro più, euro meno - truffe, sprechi e mala-gestione hanno sottratto negli ultimi anni al Servizio sanitario pubblico (e dunque alle cure di ciascuno) qualcosa come 2-3 miliardi di euro. Il dato è emerso al termine di un convegno organizzato mercoledì scorso a Roma da Farmindustria. Parola d'ordine «più controlli e meno sprechi», per «recuperare risorse» e «salvare la Sanità». L'appello è giunto dal presidente, Sergio Dompé : «Davanti a una crisi economica che rischia di avere conseguenze estremamente pesanti sul sistema Paese - ha detto - servono scelte determinate, mettendo assieme le forze di tutti. Vogliamo un sistema che prenda nota di tutto e non esiti a intervenire sul serio dove è necessario». Nel mirino «la spesa non in linea con il resto del Paese; le Regioni che vanno peggio», in attesa di quel federalismo che «sarà positivo solo se significa responsabilizzazione, con livelli di organizzazione ingegneristica che diano ordine ai regolatori». Un appello non da poco, coinciso peraltro con la notizia delle 13 misure cautelari emesse dalla Procura di Velletri (Roma) nell'ambito dell'indagine che coinvolge l'impero delle cliniche private della famiglia Angelucci , per un sistema di false fatturazioni del valore di 170 milioni di euro. Una batosta in più per una Regione che - secondo il sub-commissario per la Sanità, Mario Morlacco - «sta puntando sulla responsabilizzazione collettiva e sugli accordi con tutte le parti, per abbandonare un percorso tarato sul razionamento e imboccare la strada delle razionalizzazioni, partendo dal bisogno e non dal business». E una ricetta che convince anche il neo-direttore dell'Agenas, Fulvio Moirano che «al di là di elementi patologici» segnala un'ampia casistica di inefficienze all'interno delle strutture e sottolinea la necessità di verificare l'attività svolta dal personale sanitario, spesso gratificato da incentivi dati a pioggia, tradendo l'obiettivo dei contratti che li subordina alla verifica di produttività. A ricordare che non siamo comunque soli sul pianeta degli sprechi e soprattutto delle frodi in Sanità ci ha pensato Saverio Capolupo, comandante della Scuola di polizia tributaria della Gdf: «Negli Usa il settore è ritenuto ad alto rischio fin dal 2000; la mutualité francese, nel 2007, s'è scoperta frodi e abusi per 134,5 milioni di euro; l'Nhas britannico, tra il 1998 e il 2006 ha registrato frodi e illeciti per 222 milioni di sterline». A dimostrare che mal comune non sempre è mezzo gaudio sono però le cifre desunte da uno studio affidato ai giovani finanzieri, che ha passato al setaccio 337 sentenze su frodi sanitarie emesse dalla Corte dei Conti nel triennio 2005/2007 e 792 operazioni della Gdf risalenti allo stesso periodo. «Le prime hanno accertato frodi per oltre 12 milioni di euro; le seconde hanno segnalato danni erariali per oltre 555 milioni», ha detto Capolupo. La classifica dei comparti ad alto rischio: personale e attività di funzionamento degli enti del Ssn (48% del totale); appalti (22%); prestazioni sanitarie (17%), farmaceutica e presìdi sanitari (13%). La ricetta per reagire: misurazione rigorosa del fenomeno; responsabilizzazione e perfezionamento dei controlli interni del Ssn (magari creando un servizio ispettivo statale incaricato di coordinare analoghi servizi a livello regionale e di Asl); comunicazione; reazione (da attuare con sanzioni effettive in tempi ragionevoli). In linea la ricetta annunciata dal comandante dei Carabinieri per la Salute (Nas), Cosimo Piccinno , ha elencato i successi conseguiti sul pianeta truffe: 230 milioni recuperati nel settore farmaceutico nel periodo 2000-2007; altri 5 tra il luglio 2007 e il giugno 2008; 191 denunciati alle procure regionali della Corte dei Conti. Mentre solo sul pianeta farmacovigilanza, nel 2008, figurano all'attivo 23mila ispezioni; 4.400 infrazioni amministrative; 11mila penali e 3 milioni di confezioni farmaceutiche sequestrate. Nel futuro del nucleo - ha annunciato - anche la creazione di un reparto centrale analisi e pianificazione consulente delle autorità centrali e interfaccia internazionale per le omologhe agenzie investigative estere. Un supporto indispensabile anche alla luce del campionario di malefatte snocciolato dal Procuratore generale della Corte dei Conti, Furio Pasqualucci : iperprescrizioni, nomine illegittime, compensi indebiti, indennità à go-go, acquisti ed esenzioni fuori norma, doppie fatturazioni. A fronte di organi di controllo interno che ancora stentano a esistere . Sara Todaro Truffe in danno Ssn Anno Valore stimato truffa ( € ) Arrestate Segnalate Ag Fustelle Ricette Persone Sequestri 2000 7 393 13.000 187.160 10.031.474 2001 38 497 3.430 21.816 7.228.942 2002 43 791 1.321 9.578 20.382.558 2003 52 520 55.487 99.861 19.164.000 2004 50 1.230 2.436 55.642 77.865.096 2005 114 503 2.733 52.730 67.025.000 2006 47 230 199 201.241 11.810.660 2007 39 548 19.925 667 20.108.000 2008 135 2.099 1.200 5.879 35.022.000 Totale 525 6.811 99.731 634.574 268.637.730 Fonte: Comando Carabinieri per la Tutela della Salute (Nas) La guerra ai furbi ? ? ? ? ? ? ? ? 525 Attività 99.731 634.574 23.000 11.000 6.811 4.400 ispezioni Risultato 268 milioni 12 milioni 555 milioni 3 milioni infrazioni penali persone arrestate ricette sequestrate fustrelle sequestrate confezioni sequestrate infrazioni amministrative Truffe accertate dai Nas (2002- 2008) Segnalazione frodi della Gdf (2005-2007) persone segnalate all'Autorità giudiziaria Attività di farmacovigilanza dei Nas (2008) Condanne per danni erariali della Corte dei Conti ________________________________________________________________ ItaliaOggi 13 feb. ’09 SOGEI POTENZIERÀ I CONTROLLI SULLA SPESA PUBBLICA SANITARIA Sogei potenzierà l'attività di controllo della spesa pubblica sanitaria. Attualmente il sistema di monitoraggio, gestito da Sogei su incarico dell'Agenzia delle entrate e per conto della Ragioneria generale dello stato, attraverso la tessera sanitaria riesce a tenere sotto controllo circa il 17% della spesa, pari a 115 miliardi di euro. L'obiettivo è arrivare al 60%. Lo ha affermato il presidente di Sogei, Sandro Trevisanato, ieri in audizione presso la commissione parlamentare di vigilanza sull'anagrafe tributaria. "L'evoluzione a breve del progetto prevede il collegamento dei medici per consentire la trasmissione diretta delle ricette, e il rafforzamento dello scambio dati tra anagrafe tributaria, regioni e Asl", spiega Trevisanato "L'obiettivo è quello di portare sotto controllo, mediante estensione del sistema all'assistenza ospedaliera e alle prestazioni di medicina generale e riabilitativa, il 40% della spesa sanitaria (il residuo 60% è dovuto al costo del personale e dei beni e servizi strumentali). Tale obiettivo, ormai raggiungibile per l'evoluzione della tecnologia adottata, appare anche indilazionabile a causa della dimensione crescente della spesa sanitaria". Sull'argomento, il presidente della bicamerale di vigilanza sull'anagrafe tributaria, Maurizio Leo (Pdl), ha annunciato che insieme agli altri componenti della commissione formulerà degli emendamenti al ddl sul federalismo fiscale, "affinché vengano introdotte norme che abbiano l'obiettivo di ridurre sensibilmente la spesa pubblica mediante la realizzazione di un'unica banca dati cui gli enti locali e tutti gli altri soggetti interessati possano far confluire ed attingere informazioni", ha detto Leo. Nell'ambito della lotta all'evasione svolta da Sogei, Trevisanato ha citato anche la mappatura del patrimonio immobiliare, svolto insieme ad Agenzia del territorio e Df. "Su circa 30 miliardi di euro di rendite catastali censite, solo 24 miliardi sono dichiarati, mentre solo il 10% dei 15 milioni di abitazioni risulta dato in locazione, mentre tale dato sale a oltre il 50% per gli immobili commerciali", sostiene il presidente di Sogei. "Ulteriori correlazioni saranno attuate, nell'evoluzione del progetto, tra dati già in possesso dell'amministrazione (registri immobiliari, contratti di locazione) e altri dati, facilmente acquisibili dagli enti preposti (utenze)". ________________________________________________________________ Il Sole24Ore 9 feb. ’09 RICETTE SOLO ONLINE ENTRO IL 2010 Italia e e-government. Prima tappa l'informatizzazione dei medici di base Entro il 2012 ricette, certificati e prenotazioni saranno online. E sarà creato il «fascicolo sanitario elettronico» (storia completa della salute del paziente) per tenere meglio sotto controllo spesa ed errori umani, migliorare il rapporto costo-qualità dei servizi, limitando sprechi e inefficienze. È questa la promessa del Piano di egovernment presentato a fine 2008 dal Governo, che per essere realizzato, prevede un fabbisogno di 329 milioni. Prima tessera del Piano sono i medici di base, che dovranno essere informatizzati e collegati in rete. Oggi l'80% di loro ha un pc, ma solo il 40% una connessione in rete, nonostante sia prevista un'incentivazione economica per chi lavora online. La spesa calcolata è di 20 milioni l'anno. Intanto la ricetta elettronica diventa un obbligo per il medico di base che voglia mantenere il suo rapporto con il Ssn. Il nuovo contratto che sta per entrare in vigore, prevede l'obbligo di adesione e l'utilizzo da parte dei medici dei sistemi informativi regionali, pena la perdita della convenzione. E per raggiungere questo obiettivo la legge 133/08 ha stanziato 46 milioni per il 2007 e 69 milioni a partire dal 2008. Il progetto di digitalizzazione delle ricette prevede entro il 2010 la sostituzione delle prescrizioni farmaceutiche e specialistiche e dei certificati di malattia cartacei con gli equivalenti documenti digitali con un costo di 4,4 milioni per lo sviluppo e la manutenzione del software per medici e farmacie e di 77 milioni per le attività di assistenza e supporto in circa 55mila "punti" sul territorio. Un po' più lungo (fino al 2012) il percorso per il fascicolo sanitario elettronico la cui diffusione sul territorio costerà invece 90 milioni. Per ora però in Italia l'informatizzazione va al ralenti. Secondo una recente indagine di Federsanità Anci, federazione di Comuni e aziende sanitarie, la rete di medici di medicina generale è stata realizzata nel 14% di aziende, i servizi online (prenotazioni, referti, cartelle cliniche) nel 22% e la carta sanitaria elettronica solo nel 3% delle strutture. Unica Regione italiana già avanti in questo senso è la Lombardia, dove la tessera sanitaria elettronica contiene le informazioni sulla salute dei cittadini e fa già da apripista per l'informatizzazione della sanità. P.D.Bu. ________________________________________________________________ Il Sole24Ore 12 feb. ’09 INGHILTERRA LA CRISI «CHIUDE» GLI OSPEDALI Il «credit crunch» mette a repentaglio gli investimenti nell'edilizia Con la stretta creditizia banche in difficoltà con il «project financing» Anche negli Usa strutture a secco Giuseppe Di Marco La crisi economica rischia di bloccare la costruzione di nuovi ospedali nel Regno Unito. Il credit crunch, la stretta creditizia, sta infatti mettendo a repentaglio i programmi di investimento nell'edilizia ospedaliera. È quanto emerge da un documento interno del «National health service», portato alla luce dalla Bbc, che consiste in una sintesi di un colloquio avuto da un manager ospedaliero con il ministro della Sanità Alan Johnson . Il ministro ha detto che i direttori dei trust ospedalieri incontreranno «reali problemi» per completare i progetti, dato che nessuna banca potrà permettersi di finanziare la controversa «Private finance iniziative» (Pfi) varata dal Governo. Con la Pfi le banche finanziano la costruzione delle strutture ospedaliere per poi affittarle al servizio sanitario nei decenni successivi. La situazione è molto difficile: dal documento fatto trapelare dalla Tv pubblica inglese emerge che c'è da aspettarsi «un deserto» al posto dei capitali attesi per il 2009/2010. E ciò che è peggio è che non esiste nessun "piano B" per portare a conclusione la costruzione degli ospedali. Così dal ministro ombra della Sanità Andrew Lansley piovono accuse sui tagli attuati da Gordon Brown , che renderanno impossibile - dice - la prosecuzione dei programmi. Dal Dipartimento della salute assicurano però che la recessione non porrà freni alla Pfi. Ma indicazioni d'altro genere sono venute dallo stesso Nhs: Nigel Edwards , dirigente del Nhs confederation ha ammesso l'esistenza dei problemi di liquidità. Ma se Londra piange, Washington non ride. Anche al di là dell'Atlantico il settore ospedaliero risente negativamente della crisi. Un rapporto dell'«American hospital association» (Aha) condotto tra dicembre e gennaio su 639 strutture ospedaliere degli Stati Uniti rivela che la maggior parte dei manager sta avendo grosse difficoltà nel reperire i fondi necessari per ammodernare gli edifici e investire in nuove tecnologie sia nel settore clinico che in quello dell'Information technology. In circa la metà delle strutture (45%) oggetto dell'indagine i progetti che avrebbero dovuto avere inizio nei prossimi sei mesi sono stati posticipati e in molti casi (13%) sono stati fermati progetti già avviati. In particolare sono stati spostati a data da destinarsi interventi di edilizia (nell'82% dei casi) e progetti riguardanti tecnologie cliniche e informatiche (rispettivamente nel 65% e nel 62% degli ospedali). Riguardo alle tecnologie con applicazioni cliniche, nell'87% degli ospedali in cui si è deciso di rimandare l'impegno economico, l'investimento riguardava la sostituzione o l'aggiornamento di vecchi macchinari. Alla domanda in cui si chiedeva se fosse l'incertezza sulle future condizioni economiche a bloccare gli investimenti l'83% dei manager ha detto che si tratta di un fattore molto importante e il 13% abbastanza importante. «Dai centri oncologici all'espansione dei Dipartimenti per l'emergenza gli ospedali stanno posticipando progetti che porterebbero grandi benefìci in termini di salute per il Paese», ha commentato Rich Umbdenstock , presidente e Ceo dell'Aha. La capacità di prendere denaro in prestito per gli ospedali americani appare dunque seriamente compromessa. Tra le fonti di liquidità assumono un'importanza fondamentale le obbligazioni esentasse (ritenute molto importanti nel 62% dei casi), le banche (43%) e la filantropia (35%). Ma ora i manager che dichiarano di trovarsi di fronte a grosse difficoltà nell'accesso a queste fonti di finanziamento rappresentano la schiacciante maggioranza del totale: oltre il 90% dichiara di trovare più difficile l'accesso a bond e donazioni e il 77% ai prestiti delle banche. ________________________________________________________________ Il Sole24Ore 12 feb. ’09 LISTE DG: PER L'ACCESSO BASTA L'ESPERIENZA TAR PUGLIA P.Mart. Per accedere all'elenco dei direttori generali dell'azienda sanitaria è sufficiente possedere una esperienza quinquennale di direzione. Quello che era stato uno degli orientamenti giurisprudenziali sui quali il Consiglio di Stato si era pronunciato per tre volte in quattro anni, viene ora confermato da una recente sentenza del Tar Puglia. È il collegio della Prima sezione di Bari, con la sentenza n. 16/2009 (depositata il 13 gennaio) a confermare la tesi secondo cui per l'inclusione all'elenco dei direttori generali non è necessario il possesso di una formale qualifica dirigenziale, ma soltanto avere alle spalle cinque anni d'esperienza. Un ruolo quindi, ha sottolineato il Collegio, «di per sé non necessariamente dirigenziale», per soggetti e strutture che, per la loro natura, siano tali da configurare una posizione dirigenziale. Su queste basi il Tar ha accolto il ricorso presentato da un dottore per la sospensione della delibera regionale nella quale il suo nome non era stato inserito nell'elenco degli idonei alla nomina a direttore generale delle aziende sanitarie pugliesi. La vicenda ha preso spunto dal ricorso a unico motivo con il quale si argomentava la violazione dell'avviso pubblico di selezione, la deliberazione della Giunta regionale e quella attinente ai princìpi statali e regionali in materia di nomina dei Dg delle aziende sanitarie. L'avviso pubblico richiedeva una «esperienza almeno quinquennale di direzione tecnica o amministrativa in enti, aziende, strutture pubbliche o private, in posizione dirigenziale con autonomia gestionale e diretta responsabilità delle risorse umane, tecniche o finanziarie svolta nei 10 anni precedenti alla pubblicazione». Il ricorrente aveva infatti presentato un curriculum circostanziato, e il Tar ha preso in esame anche la normativa in oggetto modificata dall'entrata in vigore dell'art. 3- bis del Dlgs 229/1999. L'articolo ha di fatto ritoccato le possibilità di inclusione dei direttori nell'elenco delle Usl in merito ai requisiti posseduti dagli aspiranti Dg, e sul punto il Tar Bari ha dovuto stabilire se per la nomina sia necessario aver svolto attività dirigenziale almeno quinquennale (anche se in difetto di qualifica formale), oppure se occorra il requisito del possesso della qualifica dirigenziale. Ricordando le pronunce del Consiglio di Stato, il Tar ha ricordato che « non a caso il legislatore ha utilizzato il termine sostanziale "posizione" e non (come bene avrebbe potuto) quello formale di qualifica (che si sarebbe potuto utilizzare in via generale essendo proprio sia dell'impiego pubblico sia dell'impiego privato». Il curricula del medico soddisfaceva «il requisito dell'esperienza». ________________________________________________________________ Il Sole24Ore 8 feb. ’09 LA DISTRIBUZIONE DIRETTA FA «BASSO GRADIMENTO» La distribuzione diretta dei farmaci - presso la Asl anziché in farmacia - non piace al 62,67% dei pazienti del Lazio: il 94,67% di loro ha dichiarato che sarebbe più semplice e pratico poter prenotare e/o ritirare i medicinali presso le farmacie. Il dato emerge da un'indagine condotta dall' Unione nazionale consumatori (Unc) fra novembre e dicembre 2008. Il sondaggio ha voluto testare il gradimento di questo sistema di distribuzione adottato nel Lazio e in altre Regioni come misura per contenere la spesa farmaceutica ________________________________________________________________ L’Espresso 12 feb. ’09 SALVAVITA IN SALA OPERATORIA CHIRURGIA / LE NUOVE REGOLE Verificare l'organo su cui intervenire. Lavarsi le mani. Avere sangue a disposizione... Precauzioni banali. Che spesso i chirurghi dimenticano. Un grande medico dimostra come salvare milioni di vite COLLOQUIO CON ATUL GAWANDE DI AGNESE CODIGNOLA Atul Gawandc, a 42 anni, è il chirurgo più famoso d'America. Lui opera al Brigham and Women's Hospital di Boston, è docente ad Harvard. E un medico talmente influente che è già stato ascoltato dai collaboratori del presidente Barack Obama che si stanno occupando della riforma sanitaria, ma ha anche il dono della scrittura che l'ha reso famoso presso il grande pubblico: colla bora al "New Yorker" e ha scritto due libri ("Salvo complicazioni". Fusi Orari, 2005, e "Con cura", Einaudi, 2008). Oggi (ìawande è di nuovo sulla cresta dell'onda grazie a un articolo-bomba pubblicato sulla Bibbia della medicina americana, il "New England Journal of Medicine" nel quale sono riportati i risultati della Safe Surgery Saves Lives Initiative, un progetto dell'Organizzazione mondiale della sanità lanciato nel giugno 2008 che ha dimostrato come un elenco semplice di precauzioni basti a dimezzare le morti in sala operatoria. La check-list salvavita è stata sperimentata da un team internazionale di chirurghi di otto paesi (Stati Uniti, Gran Bretagna, Australia, Canada, Giordania, India, Filippine e Tanzania) su un totale di oltre 7.600 pazienti: in pochi mesi i decessi sono passati dall'I,5 per cento (tra coloro che sono stati operati senza le precauzioni) allo 0,8 per cento (di quelli per i quali è stata usata la check-list), e le complicazioni gravi dall" 1 I al 7 per cento. Se si considera che rogni anno nel mondo si eseguono non meno di 234 milioni di operazioni, si capisce l'entità della posta in gioco: milioni di vite a rischio, milioni di complicanze evitabili e milioni di dol lari spesi inutilmente. Abbiami > chiesto a Gawande di spiega iv i di cosa si tratta. Dottor Gawande, cosa prevede, in sintesi, la check-list? Si tratta di operazioni assai semplici. Controllare che il paziente sia quello atteso e che l'intervento che si sta per fare sia quello previsto, nell'organo o nel tessuto giusto. Verilicare che i ferri necessari siano tutti lì, sul carrello, sterili, e che ci tornino quando tutto è finito. Lavarsi le mani. Predisporre le sacche di sangue. Accertarsi che sia stata fatta la profilassi anribiotica. Sono cose come queste, e altre altrettanto semplici, che possono salvare milioni di vite ogni anno perché abbattono quasi del 40 per cento il rischio di decessi o di gravi complicanze collegati a un intervento, se fatte con metodo e costanza". Si tratta di atti che agli occhi di un profano sembrano banali. C'è davvero bisogno di un elenco apposito? La chinirgia è una scienza complicata, così complicata che abbiamo iniziato solo ora a capire e ad ammettere che noi per primi non tacciamo sempre tutto quello che dovremmo. Per questo dobbiamo procedere in modo sistematico, e a tal fine è vitale disporre di un elenco specifico, proprio come lo è per un pilota di aereo, che ha la responsabilità di decine di vite» Alcuni obiettano che questo rigore richiede tempo, e che la medicina moderna, incentrata sul massimo del rendimento e dell'efficienza, vuole andare in fretta. Che cosa si può rispondere? «Che i controlli in sala, cosi come l'igiene degli operatori in ogni attività ospedahera, occupano solo pochi minuti, ma assicurano una maggiore efficienza. L'ho verificato io stesso: l'attività della mia sala operatoria non si è modificata per nulla dopo l'introduzione della check-list. Al contrario, ora è più facile scoprire per tempo eventuali problemi riguardo, per esempio, alla strumentazione o agli antibiotici somministrati, e questo permette di intervenire in anticipo su elementi che, se non colti, causano - quelli sì - ritardi e complicazioni La check-list è il massimo che la chirurgia possa fare per migliorarsi? Lo sforzo più grande va fatto per migliorare il lavoro di squadra, che è il vero motore della riduzione dei decessi e delle complicanze. Il solo fatto che, appena si entra in sala, ciascuno riferisca ciò che ha fatto e che sta per fare, le difficoltà incontrate, le informazioni sul paziente e così via, ha un impatto enorme sull'andamento dell'intervento e, di conseguenza, sulla salute del malato». Nel suo libro "Con cura" suggerisce un passo ulteriore: l'adozione di una sorta di punteggio per qualunque procedura medica. Perché? «Perché non abbiamo alcuna possibilità di migliorare ciò che non conosciamo, cioè ciò che non misuriamo. Non solo: tutti noi abbiamo una buona dose di presunzione e di pensieri di varia natura che ci inducono a ritenere di aver fatto a b b a s t a n z a . Q u e s t o , nella migliore delle ipotesi, ci spinge verso un'aurea medioc r i t a s , fatto che p e r s o n a l mente ritengo inaccettabile, quando si lavora con la salute del prossimo e quando si può tare di più. Al contrario, iniziamo a q u a n t i f i c a r e ogni giorno l'esito del nostro lavoro possiamo capire facilmente come farlo meglio, per di più a costo zero». Nei suoi libri lei parla di una vera e propria scienza nuova, quella del miglioramento delle prestazioni e del perfezionamento del know how esistente. È contrario alle innovazioni terapeutiche? Non teme di essere accusato di volere un ritorno al passato? sorto uli occhi di tutti in tutte le discipline: spendiamo somme enormi per avere le tecnologie più avveniristiche, e poi non siamo in grado di sfruttarne le potenzialità né di farle arrivare davvero al paziente. Prendiamo quisto di uno strumento. Comporta una certa struttura del sistema sanitario, una corretta informazione, un'organizzazione che assicuri le cure adeguate quando ve n'è bisogno e molto alrro. Tanto è vero che in nessun paese la situazione è ottimale, molte donne non fanno l'esame una volta all'anno e non si ottiene quella riduzione dei decessi che pure sarebbe possibile, cioè un calo del 30 per cento. Un altro esempio: sappiamo da più di un secolo che lavarsi le mani salva le vite, eppure non lo facciamo. Il risultato? 1,4 milioni di infezioni ospedaliere (talvolta gravi o mortali) all'anno solo negli Stati Uniti. Specularmente, basta andare in un ospedale di un qualunque paese in via di sviluppo per capire che spesso, in strutture che a un medico occidentale sembrano prive dei più elementari strumenti di cura, si ottengono risultati che hanno poco da invidiare ai nostri, proprio perché in condizioni estreme l'ottimizzazione delle risorse non è una scelta, ma una necessità». Insomma, l'hi-tech non è sempre la risposta. ••l'importanza di questo approccio è confermata anche dalle cheek-list: con uno sforzo molto semplice e del rutto gratuito si ottengono risultati che pochi farmaci "rivoluzionari" degli ultimi anni hanno potuto assicurare. Senza contare che, così facendo, si liberano moltissimi soldi da investire altrove: abbiamo caicolato che se tutte le sale operatorie degli Stati Uniti adottassero la lista, si potrebbero risparmiare dai 15 ai 25 miliardi di dollari ogni anno-. E limiterebbero le cause dei pazienti contro medici e strutture sanitarie, in forte aumento negli ultimi anni. «Il nuovo atteggiamento dei malati è la conseguenza dei progressi scientifici. Ogni volta che sappiamo che cosa è meglio per un paziente, siamo anche ritenuti personalmente responsabili se questo qualcosa non viene fatto o arreca danni. F. il fallimento, soprattutto se aggravato dal tentativo di nascondere la verità, è ciò che manda in pezzi il rapporto di fiducia tra medico e paziente, cioè l'essenza di qualunque atto medico. È comprensibile, ma le aule dei tribunali sono i luoghi peggiori dove cercare di ricostruire tale rapporto. Molto meglio ammettere l'errore e cercare di rimediare con la collaborazione del paziente». • Pro memoria in 16 regole La check-list è suddivisa in più punti che regolano tre momenti diversi: prima, durante, e dopo l'intervento. Il team chirurgico è tenuto a controllare ogni ; dettaglio. Sì tratta per lo più di azioni semplici ma che, come dimostrato nello studio, possono salvare molte vite. Ecco, in sintesi, che cosa prevede (la versione originale è consultatile sul sito: www.who.int/patientsafety/safe surgery/en). Prima dell'anestesia I membri del team (o quantomeno un infermiere specializzato e l'anestesista) devono verificare che: 1 L'identità del paziente sia esatta, che egli abbia dato il consenso al tipo di intervento e sulla sede dove effettuarlo. 2 II sito sia stato evidenziato con un pennarello, oppure che il segno non si possa fare perché l'organo è profondo. 3 Lo strumento per la misurazione dell'ossigeno nel sangue del paziente sia inserito e funzionante. 4 Tutti i membri dello staff siano a conoscenza di eventuali allergie del malato. 5 Siano stati valutati lo stato delle vie respiratorie e l'eventuale rischio di soffocamento, e approntati tutti gli strumenti necessari in caso di emergenza. 6 Se c'è rischio di emorragie, siano disponibili almeno 500 millilitri di sangue (o, in caso di bambini, 7 millilitri per chilo di peso), nonché un appropriato sistema per dare fluidi al paziente. Prima di affondare il bisturi Tutto il team deve controllare verbalmente che: 7 Siano presenti tutti i membri del team previsti e indicati nei documenti operatori. 8 II paziente sia quello giusto, così come il sito dell'intervento e la procedura che sì sta per realizzare. 9 Siano stati passati in rassegna i possibili rischi. In particolare, i chirurghi devono riassumere gli eventi critici e quelli inattesi, la durata dell'intervento e la possibilità che si verifichino perdite di sangue; gli anestesisti devono passare in rassegna le criticità specifiche di quel paziente; gli infermieri devono confermare che gli strumenti necessari siano sterili e disponibili, ed evidenziare eventuali mancanze. 10 La profilassi antibiotica sia stata somministrata almeno 60 minuti prima dell'incisione o che, viceversa, per quel paziente non sia indicata. 11 Siano disponibili, in sala, tutti i risultati ottenuti con test di imaging, e che siano ben visibili. Prima di uscire dalla sala 11 team deve: 12 Passare in rassegna tutti i punti critici segnalati prima dell'operazione e quelli che potrebbero avere influenza sul decorso post operatorio e, in generale, sulla salute del paziente. E gli infermieri devono: 13 Verificare la denominazione dell'intervento effettuato, e che essa sia conforme a quella prevista. 14 Contare tutti gli strumenti (aghi, spugne, garze, ferri) e controllare che siano presenti quelli approntati per l'intervento, o indicare l'impossibilità di procedere al conteggio. 15 Controllare che i campioni biologici raccolti siano correttamente conservati, che vi sia apposta la giusta dicitura con il nome del paziente; 16 Segnalare qualunque anomalia o dubbio sugli strumenti. Foto: L'equipe di Gawande durante un intervento al Brigham Hospital di Boston A sinistra: un paziente mentre viene trasportato in sala operatoria. Nella pagina accanto: un primo piano del celebre chirurgo Atul Gawande ________________________________________________________________ L’Espresso 12 feb. ’09 CHECK-LIST ALL'ITALIANA Secondo i dati del Cineas del Politecnico di Milano, ogni anno in Italia vengono operate circa otto milioni di persone; di queste il 4 per cento, cioè 320 mila cittadini, subisce danni dovuti a errori o disservizi evitabili. Da alcuni mesi, però, diversi ospedali stanno sperimentando proprie check-list (tra gli altri a Rovigo. Torino. Firenze, varie strutture dell'Emilia Romagna) e il Ministero ha invitato tutti i reparti chirurgici almeno a identificare il paziente prima di intervenire con il bisturi. Non solo, secondo la Società italiana dei farmacisti ospedalieri, diversi ospedali hanno approntato delle check-list per la gestione delle farmacie interne; e in alcuni istituti, come il San Giovanni Battista di Torino, il Santa Chiara di Trento, l'Azienda Asl 17 del Veneto, il Gemelli di Roma e l'Ismett di Palermo si è arrivati a una diminuzione delle scorte del 30 per cento, con una razionalizzazione. una minore presenza di medicinali scaduti e una maggiore sicurezza, oltreché notevoli risparmi. Ma c'è un istituto che sta sperimentando la check-list chirurgica dal 2007 e che per primo l'ha resa obbligatoria per tutti gli interventi (circa 11 mila all'anno), facendola così diventare parte integrante dell'iter operatorio. È l'Istituto europeo di Oncologia di Milano, che ha stilato una prima versione in collaborazione con una società americana che si occupa da anni di check-list per l'aeronautica e per la medicina, la Indetta. Racconta Leonardo La Pietra, direttore sanitario dell'leo; «L'idea ci è venuta dai dati della letteratura, che già negli anni scorsi segnalavano, sia pure in modo meno impressionante rispetto a quelli di Gawande, i benefici delle verifiche routinarie. e dall'esperienza degli Stati Uniti, dove molti centri stavano adottando le liste mutuate da quelle degli aerei, dove l'equipaggio deve controllare moltissimi parametri prima del decollo. Abbiamo cosi stilato una nostra chek-hst e l'abbiamo suddivisa in tre fasi, quella della preparazione all'intervento, quella immediatamente precedente l'ingresso in sala operatoria e quella subito prima dell'incisione, che è stata poi via via affinata in base alle nostre esigenze, e nel giugno scorso l'abbiamo resa obbligatoria per tutti gli interventi». Il progetto non si esaurisce nella compilazione dell'elenco, ma prosegue con continui aggiornamenti della lista, con incontri sul rischio nei primi due giorni di ogni mese più un corso obbligatorio per i nuovi arrivati con qualunque qualifica, e valutaziom periodiche dei risultati. ________________________________________________________________ Il Sole24Ore 12 feb. ’09 FRANCIA: OLTRE METÀ DEGLI INTERVENTI È IN DAY HOSPITAL Silvia Porzio Cresce il ricorso al day hospital in Francia. Nel 2008, il 54% degli interventi è stato realizzato in questo ambito per un totale di 1,5 milioni di operazioni (contro il 36% nel 2000), secondo uno studio della Cassa malattia. La percentuale sale al 65% per interventi come cataratta, vene varicose, artroscopia del ginocchio, tonsille. L'aumento è indiscutibile anche se sussistono differenze sul territorio con una concentrazione nella regione parigina e nel Sud-est della Francia. Per ora sono ancora le cliniche private a realizzare un maggior numero di interventi di questo tipo, ma l'ospedale pubblico ha aumentato di 12 punti percentuali il ricorso al day hospital avvicinandosi così al settore privato. L'aumento negli ultimi due anni è dovuto, secondo la Cassa malattia francese, al meccanismo di accordo preliminare. Si tratta di un meccanismo che serve a sviluppare il ricorso al day hospital negli ospedali che non lo sfruttano sufficientemente rispetto alla media regionale. Per queste aziende, qualora sia previsto un ricovero del paziente per alcuni interventi che potrebbero essere realizzati in day hospital, deve essere rilasciato un accordo preliminare da parte della Cassa malattia che comunica l'assenso o il rifiuto entro le 24 ore dalla richiesta. Nel 2008 l'accordo preliminare doveva essere richiesto da 222 aziende, soprattutto private, nella maggior parte dei casi per operazioni della cataratta, artroscopie del ginocchio e l'estrazione di denti. Il tasso di interventi di day hospital nel settore privato è passato dal 48% al 77% in pochi mesi. Un'analisi più approfondita condotta in trenta cliniche ha rivelato, a esempio, un aumento esponenziale per la chirurgia delle varici, passata dal 15 al 62 per cento. Di fatto, la mutua ha registrato più di 4.600 richieste da 20 aziende. Il sistema dell'accordo preliminare dovrebbe essere esteso a altre 200 aziende nel corso dell'anno e toccare altri interventi come l'ernia inguinale, operazioni dei tendini e legamenti della mano e del polso e lo strabismo. Ma non è tutto. Per incentivare il ricorso al day hospital, non solo il suo sviluppo è stato introdotto nel contratto di obiettivi fra le aziende e le Agenzie regionali di ospedalizzazione, ma le tariffe dei ricoveri sono state ridotte per ridurre il gap con quelle applicate al day hospital. Inoltre anche la riduzione dei costi è un altro argomento a favore del day hospital. Sempre secondo i conti della Cassa malattia un'operazione della cataratta costa il 36% in meno del ricovero tradizionale nel settore pubblico e il 18% in meno nel privato. Per le aziende il risparmio è considerevole quando si pensa che solo nel primo semestre del 2008 sono state realizzate più di 39mila operazioni di questo tipo in day hospital. Anche per la chirurgia delle varici si registra uno scarto importante, ma più marcato nel privato: -33% a fronte di un -28% nel pubblico. Infine, bisogna considerare ovviamente anche tutti i vantaggi per i pazienti, non solo economici e di maggiore confort derivati dal fatto di rientrare a casa il giorno stesso. Secondo uno studio del 2006, il rischio di infezioni nosocomiali è diviso per cinque. _____________________________________________________ Repubblica 6 feb. ’09 PIÚ STRESS E MALATTIE PER CHI LAVORA IN OPEN-SPACE PSICHE Secondo l’Università di Brisbane la mancanza di privacy fa alzare fa pressione sanguigna Dovevano migliorare la collaborazione e l'interazione tra impiegati. In realtà gli open-space hanno l'effetto opposto e si rivelano anzi dannosi anche per la salute, perché creano stress e diffondono virus come quello dell'influenza. Lo dice una ricerca della Queensland university of Technology (Brisbane, Australia). «Nel 90 per cento dei casi gli effetti dell'open-space sono negativi» dice Vinesh oommen, ricercatore dell'ateneo. I maggiori imputati sono l'eccesso di rumore, che diminuisce la concentrazione (e dunque la produttività) e la violazione della privacy. Tutto questo contribuisce a far alzare la pressione sanguigna e accresce i rischi di contrarre malattie. Non solo: la mancanza di uno spazio personale rende insicuri, aggressivi e più inclini a litigare. Tornare a uffici con stanze piccole (se non individuali) sembra la soluzione migliore. (claudia nuzzarello) _____________________________________________________ Panorama 12 feb. ’09 NEI MISTERI DEL MIDOLLO OSSEO Alessandra Balduini ricercatrice al Dipartimento di biochimica, all'Università di Pavia. è una conferma: e sinergie tra medicina e bioingegneria possono produrre scoperte. Come l'origine ignota di alcune malattie. di GIANNA MILANO Sono cellule particolari, molto grandi, e risiedono nel midollo osseo. Si chiamano megacariociti e sono progenitori delle piastrine che circolano nel sangue. Svolgono un ruolo fondamentale nei processi della coagulazione, sono anche coinvolte nella risposta immunitaria e in processi patologici quali aterosclerosi e trombosi. «Al loro cattivo funzionamento sono legate varie patologie, tra cui le trombocitopenie ereditarie: le piastrine sono troppo poche. Non si conosce l'origine di queste malattie, perciò è importante studiare i megacariociti, come funzionano e quale ruolo hanno» dice Alessandra Balduini, che dirige un gruppo di ricerca del laboratorio di biotecnologie al Dipartimento di biochimica dell'Università dì Pavia, dove nel 1994 si è laureata in medicina e chirurgia per poi specializzarsi nel 2000 in biochimica clinica. Negli Stati Uniti, all'Indiana University school of medicine e alla Harvard medical school, ha trascorso soggiorni di ricerca dedicandosi alla capacità di differenziazione delle cellule staminali del sangue di cordone ombelicale e delle staminali embrionali murine. Continua a fare la spola fra Pavia e gli stati Uniti? Non ho mai smesso. Dal 2007 con David Kaplan, del Dipartimento di ingegneria biomedica della Tufts University, a Boston, lavoro a un progetto che mi affascina: creare un modello sperimentale per studiare il midollo osseo. Qual è lo scopo di questo progetto? Il midollo osseo è l'unico tessuto del nostro corpo la cui struttura non può essere analizzata al microscopio come gli altri. L'idea è creare un bioreattore che mimi l'ambiente midollare per studiare come i megacariociti, difficili da coltivare, diano origine alle piastrine del sangue. Perché è così difficile studiare il midollo osseo? Perché è racchiuso dentro fosso e quindi è impossibile osservarlo in vivo. Si stanno sperimentando sui topi strumenti di microscopia per l’imaging del midollo attraverso l'osso. È anche la complessità della struttura midollare a non rendere facile l'osservazione in diretta. C'è una nicchia osteoblastica, quella che sta a ridosso dell'osso, dove le cellule staminali emopoietiche restano tali e costituiscono il serbatoio di cellule cui accedere quando ce n'è bisogno, come nei trapianti. Poi c'è una nicchia vascolare. I progenitori emopoietici, quando iniziano a differenziarsi, migrano dalla nicchia osteoblastica alla vascolare. A questo punto i megacariociti del midollo si attaccano alle pareti del vaso. Come fanno e che cosa succede poi? È una cellula grande il megacariocita, e si estende con prolungamenti che attraversano il vaso dando luogo alle piastrine. Il nucleo resta nel midollo e il citoplasma si trasforma nei prolungamenti. A cosa potrebbe servire un modello sperimentate del midollo osseo? Ci darebbe la possibilità di studiare i meccanismi che regolano i processi di maturazione dei megacariociti e il rilascio di piastrine a livello del midollo osseo con lo scopo di definire l’eziopatogenesi, ossia l'origine ancora sconosciuta di specifiche patologie. _____________________________________________________ Mf 3 feb. ’09 LA PILLOLA DIVENTA HI-TECH Medicina Studi promettenti su una pastiglia-prototipo per i malati di morbo di Crohn e colite Un microprocessore consente rilascio graduale del farmaco nell'intestino di Serena Mola La tecnologia non solo aiuta la ricerca farmacologica ma entra direttamente nei farmaci. Durante l'ultima edizione dell'American Association of Pharmaceutical Scientists (AAPS) Annual Meeting and Exposition, Philips ha presentato il prototipo iPill, la pillola intelligente, che provvede al rilascio del farmaco nelle quantità e, soprattutto, nel punto dell'organismo da trattare. In particolare, questo congegno, a cui i ricercatori stanno lavorando da tre anni, è stato pensato per la cura di patologie dell'intestino come il morbo di Crohn, la colite e il cancro al colon. Le dimensioni dell'apparecchio superano di poco quelle di una pastiglia di vitamine (iPill misura infatti l i mm per 26 min), e non variano nemmeno le modalità di assunzione, in quanto iPill si ingerisce per via orale con acqua, come un qualsiasi cachet. Una volta deglutita, la pastiglia giunge naturalmente nel tratto intestinale, dove si ferma grazie a un sensore che rileva l'acidità dei tessuti. Questo rilevatore, inoltre, consente anche di localizzare esattamente la pillola dall'esterno. Giunta in sede, e conformemente alla programmazione impostata dal medico prima dell'ingestione, la pastiglia rilascia la dose necessaria di trattamento, secondo le modalità richieste: in dose unica, con somministrazioni a rilascio progressivo, o con rilascio in più punti. La durata del congegno può arrivare a 48 ore, dopo le quali viene espulsa naturalmente dal paziente. I vantaggi di questa modalità di assunzione derivano dalla somministrazione in loco del farmaco, che si mostra più efficiente: il paziente ingerisce una minore quantità di medicinale, i tempi di assimilazione si riducono e la concentrazione in un punto specifico riduce gli effetti collaterali per l'organismo. Inoltre, il medico curante ha la possibilità di monitorare dall'esterno l'azione della pillola, che è dotata di microprocessore, batteria, sensore che rileva Ph e temperatura e di un dispositivo wireless che trasmette con l'esterno. In questo modo è possibile controllare l'andamento della terapia e memorizzarne tutti i dati. Roberto Penagini, professore associato di gastroenterologia presso l'Università degli Studi di Milano, ha osservato che «la ricerca sù dispositivi ad avanzato contenuto tecnologico rappresenta la frontiera più interessante degli sviluppi medici, sia a livello diagnostico che terapeutico, in quanto si migliora l'efficienza della cura e si riduce l’invasività degli esami». Non solo. Mediante la tecnica dell'endoscopia in capsula, per esempio, è possibile compiere accertamenti su tratti intestinali che altrimenti sarebbero difficilmente osservabili, come l'intestino tenue. In occasione del 4° convegno Ecco (European Crohn's and Colitis Organisation), che si svolgerà ad Amburgo dal 5 Al7 febbraio, Paolo Paoluzi, primario dell'Unità di gastroenterologia ed endoscopia digestiva del Policlinico Umberto I di Roma, interverrà proprio ponendo a confronto l'endoscopia in capsula con la risonanza magnetica e, a questo proposito ha anticipato: «le indagini diagnostiche tramite capsula danno ottimi risultati quando non sia certa la causa dell'infiammazione, perché consentono di individuare perdite ematiche e lesioni a carico della mucosa oltre che della parete». Maggiore comodità, inoltre, per il paziente che, dopo aver osservato la preparazione (alimentazione e assunzione di purganti nelle 24 ore precedenti l'esame), ingerisce la capsula e indossa una cintura con elettrodi che registrerà per 8 ore oltre 36 mila immagini dell'intestino; in questo lasso di tempo egli può lasciare l'ospedale, e condurre tranquillamente le proprie attività. Sempre presso il Policlinico Umberto I è in corso la sperimentazione sull'endoscopia in capsula anche per il tratto del colon grazie a un dispositivo messo a punto da Olympics. _________________________________________________________________ CORRIERE DELLA SERA 14 feb. ’09 LA VITA? UN ACIDO L'HA ACCESA Ipotesi dai test in laboratorio: il ruolo dell'acido ribonucleico (Rna) per l'origine della biologia In provetta le molecole crescono. Sulla Terra trovarono una nicchia di GIUSEPPE RENIUZZI Come è cominciata la vita e perché non provare a farlo in laboratorio? «Fantascienza» dirà qualcuno. E lo era, certo fino a ieri, ma c'è chi sta provando davvero e con diverse prospettive a sciogliere il più affascinante dei misteri. Tre-quattro milioni di anni fa il mondo era fatto di oceani e lande vulcaniche. C'era una temperatura di 60-70 gradi, pochissimo ossigeno, anidride carbonica e azoto. «Chissà - ha pensato Stazzely Miller nel '53 - che fra gas e fulmini non si siano create sulla Terra le condizioni per arrivare a composti organici, e poi a proteine, a cellule, in una parola alla vita». Così ha fatto scoccare una scintilla in una camera piena di ammonio, metano e altri gas. Si sono formati composti organici e aminoacidi, i costituenti fondamentali delle proteine. Ma nella miscela di Miller i gas che c'erano davvero sulla Terra milioni di anni fa non c'erano. Quegli esperimenti sono stati ripetuti agli inizi degli anni Novanta usando i gas giusti ma così aminoacidi non se ne formavano proprio. S'è pensato che Miller avesse preso un abbaglio e per un po' questi studi sono stati abbandonati. Finché Jameg Cleaves e Jeffrey Bada, ultimo studente di Miller, hanno ripreso i vecchi esperimenti con un'idea nuova. Sospettavano che se si parte da anidride carbonica e azoto si formano composti capaci di degradare gli aminoacidi. Così hanno ripetuto gli espezimenti del maestro con certi tamponi capaci di neutralizzare i composti azotati prima che possano danneggiare gli aminoacidi. In quelle condizioni aminoacidi se ne formavano eccome, e ce n'erano perfino di nuovi rispetto a quelli che aveva trovato Miller (Corriere, 27 ottobre 2008). Una volta stabilito che a partire dai gas dell' atmosfera primitiva si può arrivare a composti organici (con o senza l'aiuto dei fulmini, perché formaldeide e aminoacidi ci sono anche nelle meteore) il problema era capire come si passa dalle molecole organiche all'acido ribonucleico (Rna). L'Rna è fatto di nucleotidi legati fra loro. Ciascun nucleotide è composto di tre parti, la base (la lettera dell'alfabeto dei geni) una molecola di zucchero e un aggregato di atomi di fosforo e ossigeno che legano ciascuno zucchero a quello che viene dopo. I ricercatori hanno provato per anni a sintetizzare Rna in laboratorio producendo basi e zuccheri e poi cercando di legarli fra loro con dei fosfati, ma così non funziona, tanto che qualcuno ha pensato che la vita di organismi fatti di Rna sia un gradino successivo rispetto a molecole più semplici che forse sono comparse sulla terra prima dell'Rna. Ma negli ultimi mesi le cose sono cambiate. Diversi ricercatori sono stati capaci di arrivare ali' Rna da molecole semplici, proprio quelle che si trovavano sulla terra milioni di anni fa. I dettagli del percorso che ha portato a questi risultati non sono ancora completamente noti, ma lo saranno presto. Se lo si può fare in laboratorio non sorprende che l’Rna si possa essere formato spontaneamente sulla superficie della Terra dove, allo-, ra c'erano condizioni favorevoli. Queste reazioni hanno bisogno di una certa temperatura e un certo pH, proprio quello degli stagni di milioni di anni fa. Forse la vita è cominciata così, ma se tutto parte dall'Rna si dovrebbe ammettere che l’Rna è capace di replicarsi senza l'aiuto di altre proteine. Proprio qualche settimana fa su Science, Tracey Lincoln e Gerald Joyce, che lavorano a Scripps Research Institute in California, hanno dimostrato che questo teoricamente è possibile. Hanno visto che frammenti di RNA sanno servirsi di nucleotidi liberi per unirsi a formare una molecola di RNA uguale alla molecola stampo già presente nella soluzione. Terminata la prima replicazione, le vecchie e nuove molecole di Rna si separavano divenendo stampi per una nuova replicazione. In go ore, la popolazione di Rna diventava l00 milioni di volte più grande. Questo succede in provetta, ma sulla Terra milioni di anni fa l'Rna dovette trovarsi una dimora appropriata, una cellula insomma. Di questo si sono occupati altri ricercatori (tra questi Jack Szostak dell'Harvard Medical School di Boston) che hanno dimostrato come acidi grassi e altre molecole siano capaci di intrappolare Rna grazie a cicli di alte e basse temperature. Adesso Jack Szostak lavora per capire se si riescono a far evolvere queste protocellule con dentro il loro Rna a forme cellulari più avanzate. Sheref Mansy e David Deamer professori di bioingegneria a Boston e in California sono dell'idea che le strutture che hanno dato origine alla vita fossero molto semplici, acidi grassi fatti di alcol e zuccheri dispersi m un ambiente complesso. Vescicole, non cellule, avvolte da membrane del tutto prive di proteine di trasporto che però avevano imparato a prendere dall' ambiente tutto quello che serviva per sopravvivere e provare nel corso di milioni di anni a diventare cellule. E ci sono riuscite. ________________________________________________________________ Corriere della Sera 1 feb. ’09 BANCA DEL DNA QUALI REGOLE di Amedeo Santosuosso* Vent' anni fa le raccolte di materiali biologici e di profili di Dna (biobanche) a scopo di identificazione non esistevano. Fra vent' anni è molto probabile che non siano più un problema, perché costituiranno solo una variante degli uffici dello stato civile e perché dovremmo avere adottato adeguati sistemi di sicurezza e organizzazione. Oggi ci troviamo a vivere la fase più delicata. Escluso di rinunciare ad avere una banca del Dna (siamo uno degli ultimi paesi europei a non averla) e non volendo inserire i dati di tutti i cittadini, è necessario attuare un bilanciamento tra il fondamentale diritto alla riservatezza e le esigenze di sicurezza. Nel dicembre scorso la Corte europea dei diritti dell' uomo ha dato una basilare indicazione sui termini di questo bilanciamento. Nel caso Marper v. Regno Unito i giudici hanno affermato il diritto dell' imputato, che alla fine del processo viene assolto, alla distruzione dei campioni biologici e del profilo del Dna che erano stati raccolti nelle indagini. Il criterio è molto semplice: se si entra nella banca in relazione a un determinato reato, l' assoluzione rompe questa relazione e toglie legittimità alla permanenza di quelle informazioni, permanenza che diventa una violazione del diritto alla riservatezza. Il criterio è talmente chiaro, che non pare possano esservi obiezioni serie di qui ai prossimi vent' anni.Il Senato italiano ha finalmente approvato il 23 dicembre scorso un disegno di legge che regola l' istituzione di raccolte di campioni biologici e di profili di Dna, il prelievo coattivo di materiali biologici nei processi penali e l' adesione dell' Italia al Trattato di Prüm (un accordo di cooperazione tra alcuni paesi dell' Unione europea). Ora la discussione è alla Camera e sicuramente i parlamentari trarranno spunto dalla sentenza Marper per emendare il testo approvato dal Senato nelle parti che non sono in sintonia, come la possibilità di prelievo coattivo anche da non imputati (che viola il criterio in entrata in relazione a un reato) oppure la cancellazione dei dati solo per alcune formule di assoluzione e non per altre (che viola il criterio in uscita), e altro ancora. Nei giorni scorsi se ne è discusso a Roma in un incontro pubblico su iniziativa del Centro di ricerca interdiparimentale ECLSC dell' Università di Pavia e del Policlinico San Matteo di Pavia, in collaborazione con il Comitato nazionale biosicurezza e biotecnologie, e che si è concluso con una raccolta di indicazioni che verranno sottoposte ai parlamentari e al pubblico, per una discussione il più aperta e consapevole possibile sui modi corretti di introduzione di uno strumento utilissimo per l' individuazione dei colpevoli, come per l' assoluzione di innocenti. *giudice Corte d' appello di Milano Santosuosso Amedeo _________________________________________________________________ CORRIERE DELLA SERA 14 feb. ’09 IL NOBEL CAMILLO GOLGI E IL CASO DELLA NOBILDONNA Vetrini e ricostruzioni II cervello di Henry Gustav Molaison - l'uomo che non poteva ricordare - morto nel dicembre scorso in America è stato un caso che ha fatto storia nel mondo della neuropsicologia. Le indagini istochimiche sono ora coordinate dall'italiano Jacopo Annese al Brain Observatory dell'Università della California (San Diego). Dai risultati delle ricerche, che saranno messi sul web, la comunità degli studiosi si attende preziose informazioni sui processi cognitivi. Già nel lontano 1869 un altro italiano, lo scienziato e medico Camillo Golgi (Nobel per la medicina nel lgo6) aveva dato un contributo fondamentale alla storia della neuropsicologia documentando attraverso uno studio istologico che un meningioma (tumore cerebrale benigno) dei lobi frontali era in grado di alterare funzioni psichiche e cognitive. Golgi, prima di diventare il padre della moderna neuroanatomia, aveva frequentato tra il 1866 e il 18681a Clinica delle Malattie Nervose e Mentali diretta da Cesare Lombroso. in quegli anni curò B.A, nobildonna lombarda che manifestò gradualmente un cambiamento di personalità compromettendo le proprie abitudini cognitive e sociali, un caso che oggi sarebbe definito di sindrome frontale. Nel 1869, quando B.A. morì, Golgi - che si affacciava allora Al mondo della neuroistologia - volle condurre personalmente l'autopsia della paziente. Preparò centinaia di vetrini per scoprire quale meccanismo patogenetico fosse alla base di una malattia che sospettò essere di natura organica e non l'effetto di una alienazione mentale come il suo maestro Loznbroso aveva affrettatamente conclusa. II giovane scienziato attribuì la malattia psichiatrica della donna con la presenza di un tumore delle meningi (meningioma psammomatoso) che comprimeva i lobi frontali. Questi dati rimasero per anni in una sorta di oblio scientifico finché nel 1993 II dottor Paolo Liberini, neurologo presso la II Divisione di neurologia degli 5pedali Civili di Brescia, si imbatté in quei vetrini conservati presso l'istituto di Patologia Generale dell'Università di Pavia_ Fu così che tutto il monda scientifico, grazie alle pubblicazioni di Liberini e del dottor PierFranco Spano (su Nature Medicine, Y, 386,1995; e in Journal of the History of the Neuroscience, g, z00o), poté conoscere questa vicenda significativa per la storia della neuropsicologia «E' bello immaginarsi quale impatto avrebbero avuto le scoperte di Golgi se avesse potuto diffonderle via Interne» commenta Liberini. lacopo Gori ________________________________________________________________ Il Sole24Ore 12 feb. ’09 NUOVI STRUMENTI CONTRO LE NEOPLASIE MALIGNE All'Ist di Genova la radioterapia è hi-tech RENZO CORVÒ DI RENZO CORVÒ * La tomoterapia elicoidale è la più moderna e sofisticata attrezzatura di radioterapia a fasci esterni per la cura con radiazioni ionizzanti dei pazienti affetti da neoplasie maligne. E rappresenta, in ordine cronologico dalla scoperta dei raggi X, il quarto "step tecnologico" di introduzione in clinica di innovative unità radianti a fasci esterni dopo la roentgenterapia (1900), telecobaltoterapia (1950) e l'acceleratore lineare (1980). Nelle scorse settimane, presso la struttura complessa Oncologia radioterapica dell'Ist di Genova, è stato installato il sistema Tomoterapia Hi-Art (Highly Adaptive Radiotherapy) che permette di: 1) localizzare il tumore anche quotidianamente prima di eseguire l'irradiazione (questa modalità viene chiamata Igrt- Image-Guided Radiotherapy ovvero Radioterapia guidata dalle immagini); 2) somministrare un trattamento di elevata precisione al bersaglio tumorale attraverso la tecnica di radioterapia chiamata Imrt - Intensity-Modulated Radiotherapy ovvero radioterapia a intensità modulata; 3) irradiare volumi tumorali di tutte le dimensioni, da lesioni molto piccole (parametri minimi di irradiazione: 6 mm x 1 cm) a distretti corporei molto estesi (parametri massimi di irradiazione: 40 cm per 160 cm); 4) eseguire contemporaneamente l'irradiazione di multiple lesioni tumorali site in aree corporee anche non limitrofe; 5) contrarre il numero totale di sedute radianti necessarie per la cura del paziente fino a 10-20 sedute invece di 30-38 sedute. Il termine "tomoterapia" indica la modalità di trattamento radiante per singoli strati corporei (da tomo = strato); il termine "elicoidale" rinvia invece all'originalità del trattamento eseguito attraverso un elevatissimo numero di rotazioni del fascio radiante intorno al paziente posizionato su un lettino che transla contemporaneamente all'irradiazione. Attualmente in Italia, dove sono operativi 154 centri di Radioterapia, sono state installate 9 attrezzature di tomoterapia elicoidale (Milano-San Raffaele, Aviano, Meldola, Reggio Emilia, Modena, Roma-San Camillo, Napoli e Genova-Ist). La tomoterapia elicoidale installata all'Ist è la prima in Europa a essere accessoriata con il set dedicato all'esecuzione di trattamenti di tomo-radiochirurgia e di tomo- radioterapia stereotassica. L'attività di radiochirurgia e di radioterapia stereotassica frazionata mediante tomoterapia sarà eseguita in stretta collaborazione con le Sc di Neurochirurgia dell'Istituto G. Gaslini e dell'Aou San Martino, nonché in stretta sinergia con la Sc Radioterapia dell'ospedale Galliera. La tecnologia introdotta a Genova presenta poi un altro segno distintivo. È infatti la prima in Italia a disporre del sistema software Stat-Rt che permette di poter realizzare in maniera rapida, efficiente e clinicamente avanzata i trattamenti palliativi. La tecnica di "Radioterapia palliativa evoluta" sarà eseguita con tomoterapia mediante il posizionamento del paziente sul lettino di trattamento con susseguente localizzazione radiologica con Tac del bersaglio, immediata pianificazione dosimetrica e rapida esecuzione del trattamento in seduta unica. Il beneficio sarà massimo nei pazienti con sintomatologia oncologica acuta afferenti all'Ist. Con l'acquisizione della tomoterapia elicoidale sarà condotto nel 2009 un originale progetto di ricerca pre-clinica, totalmente finanziato dalla Fondazione Carige di Genova e Imperia, che permetterà di predire gli effetti radiobiologici indotti dalla distribuzione polverizzata della dose fisica di radiazioni emesse dalla tomoterapia nel trattamento dei pazienti pediatrici e dei pazienti adulti avviati a trapianto allogenico di midollo osseo. Questa ottimizzazione del trattamento sarà eseguita in stretta collaborazione con la Uo Oncologia pediatrica dell'Istituto Giannina Gaslini di Genova e con il Centro trapianti di midollo osseo e cellule staminali dell'Aou San Martino di Genova. La tomoterapia installata all'Ist, la prima e unica nella Regione Liguria, favorirà a regime il trattamento di oltre 460 pazienti/anno per un totale di 5.500 sedute di trattamento. I trattamenti saranno programmati in collaborazione con la Sc Radioterapia dell'ospedale Galliera e con le Sc di Radioterapia delle Asl 1 Imperiese, Asl 2 Savonese e Asl 5 Spezzina. Prevediamo che saranno circa 250 i pazienti liguri che potranno eseguire tecniche complesse di radioterapia presso l'Ist senza necessità di essere avviati a centri extra-regionali. Sulla base degli accordi con Tomotherapy incorporation (Madison, Wi, Usa) e con tecnologie avanzate T.a. (Torino) l'Ist, che è sede della Scuola di specializzazione in radioterapia dell'Università di Genova, sarà un centro didattico per la formazione del personale specialistico (medico specialista in radioterapia, esperto in fisica medica, laureato in tecniche radiologiche) che dovrà acquisire conoscenze sulle nuove e progressive ricerche tecnologiche e applicative cliniche della tomoterapia. * Direttore Struttura complessa Oncologia radioterapica Istituto nazionale per la ricerca sul cancro Genova ________________________________________________________________ Il Sole24Ore 12 feb. ’09 OSSIGENO: TERAPIA DEL FUTURO MEDICINA IPERBARICA/ Il punto sulle innovazioni nei trattamenti decompressivi Dal soccorso subacqueo allo studio delle staminali ecco tutte le novità Rosario Marco Infascelli Negli ultimi sviluppi della medicina subacquea è stato dato ampio spazio alle novità tecnologiche, alla terapia farmacologica e ricompressiva nelle patologie subacquee, ai protocolli terapeutici nelle emergenze iperbariche (gangrene gassose, intossicazioni da monossido di carbonio, patologie da decompressione), così come alla prevenzione e alla gestione degli incidenti. Su queste innovazioni è stato fatto il punto durante il 18 congresso nazionale della Simsi (Società italiana di medicina subacquea e iperbarica) che si è svolto a Napoli dal 13 al 15 novembre scorso. Gli studi recenti e le "Consensus conference" europee e statunitensi, nonché la spinta e l'interesse determinante dell'industria verso la cura di tutte le patologie trattate presso i Centri iperbarici e gli ambulatori delle ferite difficili, hanno sviluppato un crescente interesse degli operatori verso soluzione terapeutiche sempre più sicure, affidabili e concretamente in grado di migliorare sensibilmente i tempi di guarigione nelle patologie trattate. La tecnologia, di pari passo, ha messo a disposizione strumenti e apparecchiature sempre più sofisticate che risultano essere di grande ausilio nell'offrire all'utenza performance sempre più adeguate nei tempi e nelle modalità di cura. Negli ultimi dieci anni la specialità ha mostrato notevole dinamismo in tutto il mondo scientifico e, con il contributo di studi clinici prospettici e retrospettivi, studi randomizzati, ricerche su cloni cellulari, studi biochimici e cellulari, molteplici sono le conferme terapeutiche e suggestive sono le prospettive future nel campo applicativo. In Europa e negli Stati Uniti la comunità scientifica, con l'apporto dei numerosi ricercatori e medici italiani del settore, ha intensificato gli incontri e lo scambio di dati e ha organizzato varie "Consensus conference" internazionali dove sono state evidenziate e confermate, con metodi rigorosi, le numerose indicazioni all'ossigenoterapia iperbarica e sono state riviste le modalità di approccio terapeutico nelle emergenze/urgenze subacquee. Gli studi presentati nelle "Consensus conference", valutati da Commissioni ad hoc, hanno parzialmente modificato, per esempio, l'approccio terapeutico classico negli incidenti subacquei indicando quali sono i presìdi di supporto significativamente raccomandabili e quali sono, a oggi, le tabelle ricompressive più idonee da utilizzare a seconda della tipologia e gravità dell'incidente. Vari studi multicentrici effettuati su numerosi subacquei praticanti hanno evidenziato su un'ampia percentuale di essi il persistere della pervietà del forame ovale e ciò ha permesso di dirimere molti interrogativi in quegli incidenti subacquei decompressivi non altrimenti spiegabili. Le "Consensus conference" organizzate per confermare il "rationale" e gli effetti terapeutici in alcune controverse indicazioni dell'ossigeno iperbarico hanno provato, con rigorosa metodica scientifica, quali sono i reali benefìci dell'ossigenoterapia iperbarica in tali patologie e quali, invece, sono le indicazioni che non trovano sufficienti riscontri in termini di appropriatezza e significatività terapeutica. Recenti studi americani e italiani hanno preso in considerazione la possibilità, evidenziata da ri cerche cellulari, che l'ossigeno iperbarico, come provato in sperimentazioni recenti, sia in grado nell'animale e nell'uomo di «mobilizzare e far proliferare» cellule staminali progenitrici delle normali cellule circolanti e tissutali in grado di sostituirsi a cellule, per esempio endoteliali e cerebrali, danneggiate da condizioni ipossiche. In studi randomizzati e controllati, anche a doppio cieco, si è constatato che nei topi la mobilizzazione delle cellule staminali è elevata 16 ore dopo un singolo trattamento Oti e che normalmente circa il 10% delle cellule umane progenitrici esprime markers come cellule endoteliali vascolari. Tale percentuale raddoppia dopo una ossigenoterapia iperbarica e la crescita cellulare è notevolmente incrementata rispetto al gruppo di controllo. In definitiva, dopo il trattamento con ossigeno iperbarico ci sono più cellule staminali in circolo e più cellule staminali raggiungono l'obiettivo. Gli studi effettuati sull'intossicazione acuta da ossido di carbonio, sia autoptici che clinici, hanno evidenziato quali danni produce l'intossicazione a livello cerebrale e quali sono i benefìci che l'ossigeno iperbarico è in grado di apportare nell'intervento in emergenza e nel decorso clinico post intossicazione. Veri studi clinici hanno rilevato una netta e significativa riduzione della comparsa delle sequele neurologiche proprie della cosiddetta "sindrome post intervallare". Tutto ciò dimostra che l'orizzonte della ricerca è ampio e foriero di ulteriori scoperte. Alla sperimentazione puramente cellulare si affianca un dinamismo di tutta la comunità clinica del settore e di settori assimilabili, con l'avvio di studi multicentrici, di studi retrospettivi, di sperimentazioni sugli animali e sull'uomo. I lavori in corso sono in definitiva tendenti a implementare le conoscenze e destinati a migliorare l'approccio diagnostico e terapeutico nell'ambito della specializzazione. Tra questi si possono citare studi sulla applicazione delle nuove teorie decompressive, gli studi retrospettivi sull'incidenza rispetto ai profili decompressivi, lo sviluppo della tecnologia computeristica subacquea, la valutazione degli effetti dell'ossigeno iperbarico sull'inibizione della "multidrug resistance", ricerche e sperimentazioni sul sinergismo tra ossigeno iperbarico e alcuni farmaci. Non mancheranno le sperimentazioni cliniche sul trattamento con ossigenoterapia iperbarica delle gravi enteriti e cistiti emorragiche da adenovirus nei pazienti immunodepressi, così come gli studi multicentrici retrospettivi sulle sordità improvvise su base vascolare e traumatica. Infine vanno ricordati gli sviluppi dei report e degli studi retrospettivi sulla sinergia medicazioni complesse-ossigeno terapia iperbarica nel trattamento delle ustioni e delle ferite difficili. Sul tema, la frontiera della ricerca vede già un forte impegno per la sinergia tra l'ossigeno iperbarico e gli impianti di cellule auto ed eterologhe. Rosario Marco Infascelli Presidente Società italiana di medicina subacquea e iperbarica Incidente da decompressione: interventi terapeutici Raccomandazioni controverse 2 2 - = 1 Ustioni Cerebral palsy Neuroblastoma stadio IV Acufene cronico Raccomandazione Livello 1 Raccomandazione Livello 1 Raccomandazione Livello 1 Raccomandazione Livello 1 Raccomandazione Livello 1 Raccomandazione Livello 3 Raccomandazione Livello 3 Sclerosi multipla Osteoradionecrosi Occlusione arteria centrale retina occlusione ramo arteria retinica Sindrome da schiacciamento Ulcera perineale nel morbo di Chron Retinite pigmentosa Raccomandazione Livello 3 Raccomandazione Livello 3 Raccomandazione Livello 3 Raccomandazione Livello 3 Raccomandazione Livello 4 Raccomandazione Livello 3 Raccomandazione Livello 4 Raccomandazione Livello 3 Raccomandazione Livello 3 Raccomandazione Livello 2 Somministrazione di O fino a un massimo di 6 ore con FiO normobarico durante il trasporto Da rivalutare l'utilizzo della lidocaina Vietata la ricompressione terapeutica in acqua Dubbio l'utilizzo di steroidi, anticoagulanti e altri farmaci Somministrazione sul posto di fluidi per os tranne se c'è perdita di coscienza, nausea o vomito e senza forzare l'infortunato a bere, mentre in ospedale è necessaria la somministrazione di fluidi (ringer lattato) per via sistemica Trasferimento appena possibile a un centro iperbarico specializzato (localizzato in o funzionalmente collegato con un ospedale) L'utilizzo di tabelle terapeutiche in ossigeno a 2,8 bar per le forme dolorifiche, mentre per le forme neurologiche o vestibolari è appropriato anche l'uso di tabelle a 4 bar con respirazione in miscela. Solo nell'embolia gassosa arteriosa è appropriato il trattamento a 6 bar con respirazione in miscela (non è consigliata la respirazione in aria) Utilizzo dell'aspirina sul luogo dell'incidente è considerata opzionale con dosaggio di 0,5g (500 mg) Ossigenoterapia e paralisi cerebrali: sperimentazione ancora incompleta Le i ndicazioni alla ossigenoterapia iperbarica sono oggetto di continua revisione, basandosi essenzialmente sulle prove di efficacia che emergono dagli studi scientifici che vengono prodotti e pubblicati sulla letteratura mondiale. Al momento attuale è sotto attento monitoraggio la applicazione della metodica terapeutica sulle paralisi cerebrali infantili e sulle patologie neurologiche a esse assimilabili. In questa patologia o gruppo di patologie è fondamentale stabilire con certezza quale sia il reale meccanismo di azione dell'ossigeno iperbarico o anche della sola esposizione in pressione. Non sembra completamente convincente la teoria degli "idling neurons" o della penombra ischemica, non essendo stata completamente chiarita la corretta interpretazione dei risultati rilevati con la Spect o altri esami strumentali. Nel 2001 è stato pubblicato sul Lancet, rivista di innegabile spessore scientifico e ad alto "impact factor", uno studio randomizzato prospettico in doppio cieco che dimostrava come il gruppo trattato con ossigeno iperbarico a 1,75 Ata non avesse un decorso clinico migliore del gruppo trattato con aria a 1,3 Ata. A esso hanno fatto seguito altri studi e "review" bibliografiche che ne confermavano le conclusioni. È quindi necessario che, qualora e quando se ne creassero i presupposti, lo studio clinico venga progettato con il massimo rigore scientifico sotto l'aspetto del reale rispetto della metodica di "doppio cieco" e della somministrazione del placebo. Dovranno essere inoltre evidenziati in modo più certo e misurabile gli eventuali effetti collaterali nonché il rapporto costo/beneficio dell'intervento terapeutico. Solo in questi termini e a queste condizioni la Simsi si dichiara disposta a valutare l'inserimento della patologia nell'elenco delle indicazioni alla ossigenoterapia iperbarica. Immersioni: focus sugli incidenti ? ottimizzare le procedure del soccorso; Dal 2002 la Simsi (Società italiana di medicina subacquea e iperbarica) gestisce la raccolta dei dati relativi agli incidenti subacquei che si verificano annualmente e che vengono trattati nei Centri iperbarici in Italia. Questo per coprire una esigenza avvertita da quanti si occupano di attività subacquee e in particolare in campo medico al fine di: approfondire la conoscenza su decorso e patogenesi delle Pdd in rapporto a diverse tipologie di immersione, a condizioni patologiche o metaboliche dei soggetti incidentati; verificare i limiti di sicurezza nell'attuazione delle più recenti tecniche di immersione; contribuire alla conoscenza e armonizzazione delle varie esperienze terapeutiche. Per questo sin dall'inizio l'obiettivo che ci siamo posti come primario è stato quello di organizzare e mettere a punto lo strumento "sistema di rilevazione" che necessariamente deve poter contare su dati e referti certi e attendibili e per questo purtroppo la nostra rilevazione comprende solo gli incidenti che vengono alla osservazione dei Centri per il trattamento ricompressivo in Camera iperbarica non comprendendo quindi i decessi e altre patologie subacquee non da decompressione. Riguardano 473 casi ben documentati, trattati nei centri iperbarici di Bari, Napoli, Brescia, Salerno, Lecce, Roma, Latina, Ravenna, Bolzano, Bologna, Torino, Marghera, Elba, Ustica, Lampedusa, Grosseto, Cagliari e Pisa a tutto il 2007. Sono inoltre pervenute altre notizie, sia pur incomplete, di trattamenti effettuati in questi anni, per un totale di oltre 650 casi. Numeri sul pronto soccorso iperbarico 9% 78% 22% 88% 38% 16% 1% 62% 38% 1,5% 39,15 anni aria 96, nitrox 0 trimix 4 Età media Alcuni dati Invariati o peggiorati Precedenti patologie da decompressione Riferito errore nel calcolo della decompressione Ridotti parzialmente Ridotti parzialmente Gas utilizzati (%) Rapporto maschi/ femmine Utilizzo del computer per il calcolo della decompressione Casi trattati con successive terapie ricompressive Trattamenti Casi trattati con una sola terapia ricompressiva Livello di esperienza Sub esperto 79% Istruttore 11% Operatore tecnico subacqueo 9% Outcome al termine del/dei trattamenti Sintomi scomparsi 86,4% Ridotti notevolmente 12,1% Allievo 1% Soccorso e trasporto attivo al centro iperbarico Autonomamente 52% Attraverso un pronto soccorso 21% Attraverso il 118 25% Attraverso il Dan (Diving alert network) 2% Tempo tra esordio dei sintomi e ricompressione in camera iperbarica Entro una ora 13% Tra 1 e 4 ore 36% Tra 4 e 6 ore 9% Tra 6 e 12 ore 14% Tra 12 e 24 ore 9% Oltre le 24 ore 19% Outcome dopo il primo trattamento ricompressivo Sintomi scomparsi 50% Ridotti notevolmente 33% ________________________________________________________________ Il Sole24Ore 12 feb. ’09 CASSAZIONE TEST-HIV SOLO CON IL CONSENSO Nessuno può essere sottoposto a esami senza esplicito assenso Al paziente riconosciuti i danni anche per la privacy non rispettata Lucilla Vazza ON LINE I testi delle sentenze www.24oresanita.com Itest per accertare l'Hiv- Aids vanno fatti nel totale rispetto della privacy e previo consenso esplicito del paziente, che in caso contrario può chiedere e ottenere il risarcimento dei danni. Un'affermazione che parrebbe a tratti scontata, eppure la Corte di cassazione ha ribaltato la sentenza della Corte d'appello e ha sottolineato un forte richiamo al rigore intervenendo nel caso di un paziente che ha avuto una serie di gravi conseguenze nella vita privata per colpa di un trattamento "sbrigativo" e superficiale delle informazioni riguardanti la propria salute e il proprio orientamento sessuale. La terza sezione della Corte di cassazione che con la sentenza 2468 , depositata il 30 gennaio, ha riaffermato il dovere da parte dei medici di rispettare la volontà del paziente anche in un quadro di esami o trattamenti urgenti e necessari. La vicenda ricostruita nella sentenza risale al 1997, quando ancora la legislazione sulla risevatezza dei dati era in un certo senso agli albori (la legge 676/1996, prima legge organica sulla privacy era appena stata varata), per cui si spera che oggi non ci debba essere più bisogno di ricorrere ai giudici per vedere riconosciuto il diritto all'anonimato nei test medici. La questione è però interessante perché affronta due distinte problematiche: la riservatezza per l'appunto e il consenso esplicito del paziente nei trattamenti sanitari. La vicenda. Un uomo fu ricoverato in ospedale per un forte attacco febbrile causato da un calo di globuli bianchi e, fu sottoposto a sua insaputa al test per accertare se fosse sieropositivo. Fin qui il primo errore. L'esito positivo dell'esame era stato annotato in cartella clinica insieme a dati sensibili «non rilevanti», come la sua omosessualità: la cartella era stata lasciata in un luogo non protetto «sul termosifone della sala infermieri», tant'è che la madre del paziente aveva appreso in questo modo la verità sulla condizione del figlio. Oltre alla famiglia, la notizia trapelò ben oltre le pareti dell'ospedale tanto che l'uomo che era un commerciante - aveva dovuto chiudere la sua attività. A questo punto è scattata la denuncia nei confronti del primario dell'ospedale e della Asl, con la richiesta di un risarcimento pari a un miliardo di lire. I sanitari si sono difesi sostenendo che il test era stato effettuato nel quadro di un sospetto che si trattasse di un sintomo di Aids «e che rispondeva a esigenze di necessità clinica, nel suo stesso interesse, che si intervenisse al più presto a una diagnosi precisa». Gli ermellini hanno replicato che anche in caso di necessità clinica «il paziente deve essere informato del trattamento cui lo si vuole sottoporre e ha il diritto di dare o di negare il suo consenso, in tutti i casi in cui sia in grado di decidere liberamente e consapevolmente». Dal consenso si potrebbe prescindere «solo nei casi di obiettiva e indifferibile urgenza del trattamento o per specifiche esigenze di interesse pubblico». Quanto alla privacy violata, se è vero che l'anonimato è previsto solo per le indagini epidemiologiche, ciò «non consente tuttavia di escludere che anche per le indagini cliniche debba essere rispettata quanto meno la riservatezza del paziente, adottando tutte le misure per evitare che l'esito del test e i dati sensibili siano conoscibili anche al di fuori della cerchia del personale medico e infermieristico adibito alla cura». ________________________________________________________________ L’Unione Sarda 13 feb. ’09 UN ARBUSTO SARDO CONTRO LA LEISHMANIOSI Un tempo in Sardegna era usata per intontire i pesci delle acque interne ("pisci alluau"). Oggi, grazie a una ricerca degli studiosi dell'Università di Cagliari, la pianta dell'euforbia ("Euphorbia characias") assume un ruolo di assoluto rilievo nella lotta contro una delle peggiori malattie parassitarie: la leishmaniosi. L'importante scoperta è stata annunciata ieri da Giovanni Floris, ordinario di Biochimica e Biologia molecolare all'Università di Cagliari, coordinatore del gruppo di ricerca composto da due biochimiche (Rosaria Medda e Francesca Pintus) e due biologhe (Delia Spanò e Silvia Massa). La ricerca, condotta nella sezione di Biochimica e biologia molecolare del Dipartimento di Scienze applicate ai biosistemi con la collaborazione dell'Istituto Zooprofilattico sperimentale della Sardegna, è stata finanziata dalla Fondazione Banco di Sardegna. Il cuore di questa ricerca indica che la proteina estratta dal lattice dell'Euphorbia characias permette di ridurre del 95 per cento la crescita e la moltiplicazione di questi protozoi. Le leishmaniosi, chiamate così in ricordo di William Leishman, il medico inglese che un secolo fa osservò la malattia, sono trasmesse dalla puntura di ditteri ematofagi (flebotomi, noti con il nome di pappataci) di una trentina di specie. Alcune forme di questo morbo sono frequenti anche nell'uomo, in particolare negli individui immunodepressi, e l'infezione - è stato accertato - è assente soltanto in Antartide, in Australia e in Oceania. La Leishmaniosi è una malattia che si presenta con un ampio ventaglio di sintomi, ed è caratterizzata da una complessa modulazione della risposta immunitaria. Il più colpito è il cane e questo animale rappresenta il principale "incubatore" per i protozoi responsabili della parassitosi. In alcune aree della Sardegna, ha fatto notare Giovanni Floris, oltre il 90 per cento dei cani risulta colpito da leishmaniosi: anche per questo la scoperta riveste una particolare importanza. Mentre in campo umano le terapie disponibili portano le percentuali di guarigione completa al 96 per cento dei casi, la Leishmaniosi canina è una patologia fino ad oggi di difficile soluzione. Ma dal momento che la trasmissione all'uomo avviene attraverso la puntura delle femmine di flebotomo infettate dopo essere entrate in contatto con cani malati, appare evidente che la migliore prevenzione si attua aggredendo la malattia sul nostro amico a quattro zampe. Va però detto che la trasmissione della leishmaniosi dal cane all'uomo si verifica con una incidenza modesta rispetto alla diffusione della malattia nel cane. La leishmaniosi infatti non viene trasmessa direttamente da cane a uomo in quanto il protozoo, per diventare infettante, deve prima compiere nel flebotomo una parte del proprio ciclo biologico. La vicinanza o il possesso di un cane infetto comportano per l'uomo un rischio epidemiologico molto basso. La scoperta conferma il valore della ricerca di base che viene condotta da tempo in Sardegna e le sue grandissime potenzialità: considerando che si tratta di una pianta diffusa in tutta la Sardegna, l'applicazione dei risultati della ricerca potrebbe ragionevolmente portare in tempi brevi alla produzione di un principio attivo utilizzabile a scopo sanitario. ________________________________________________________________ La Nuova Sardegna 11 feb. ’09 COLESTEROLO ALTO PER I SARDI Colpita la metà della popolazione tra i 37 e i 74 anni CAGLIARI. Quasi la metà dei sardi ha problemi di colesterolo. E' quanto emerge dagli studi Dialogue e Lead, effettuati in 46 tra ospedali e università italiane. L'indagine cita i dati del Progetto Cuore dell'Istituto superiore di sanità. Nell'isola - si legge in una nota - il 21 per cento degli uomini e il 28 per cento delle donne ha una ipercolesterolemia mentre il 41 per cento degli uomini e il 35 per cento delle donne è in una condizione di rischio. Questo significa che oltre la metà dei sardi tra i 37 e i 74 anni ha problemi, più o meno gravi con il colesterolo. A questi vanno aggiunti quanti soffrono di colesterolo elevato senza saperlo. In Sardegna- così come nelle altre regioni del Sud, il dato e' trasversale: l' 80 per cento degli uomini e l'81 per cento delle donne con colesterolemia elevata non è sottoposto ad alcun trattamento farmacologico mentre il 6 per cento degli uomini e l'8 per cento delle donne non è trattato in modo adeguato. Il dato preoccupante, quindi, è che in Sardegna solo il 14 per cento degli uomini e l'11 per cento delle donne è trattato in modo adeguato. Se per tutti l'ipercolesterolemia è un killer pericoloso, ci sono dei sardi per i quali tenere sotto controllo il colesterolo e' ancora più importante. Perchè per loro in gioco c'e' la vita. Dal diabete alle malattie cardiovascolari: in queste persone l'ipercolesterolemia comporta un rischio altissimo, dalle proporzioni drammatiche. Basta dare un rapido sguardo alle cifre per rendersi conto di quanti siano i sardi - il dato è trasversale a tutte le regioni del Sud - a così alto rischio. Iniziamo dai diabetici: il 10 per cento degli uomini e l'8 per cento delle donne è diabetico. L'infarto interessa l'1,7 per cento degli uomini e lo 0,6 per cento delle donne tra i 35 e i 74 anni; l'ictus l'1,4 per cento degli uomini e lo 0,9 per cento delle donne; l'angina pectoris il 3,2 per cento degli uomini e il 4,5 per cento delle donne; l'arteriopatia periferica il 2 per cento degli uomini e il 3,3 per cento delle donne; ed infine il Tia che interessa al Sud, Sardegna compresa, l'1,1 per cento degli uomini e l'1 per cento delle donne. ________________________________________________________________ Corriere della Sera 8 feb. ’09 PRIVARSI DI UN RENE NON PEGGIORA LA VITA Trapianti . Uno studio indaga sulla salute dei donatori viventi fino a quarant' anni dall' intervento Come si vive con un rene solo? Bene e a lungo, secondo uno studio dell' università del Minnesota (Stati Uniti) che ha voluto approfondire lo stato di salute e la qualità delle vita di circa 3.700 pazienti che hanno donato un rene tra il 1963 e il 2007. Secondo gli autori, si tratta del primo studio su grandi numeri, in attesa dei risultati di un' indagine clinica su 8 mila donatori appena iniziata in tre grandi centri (Università del Minnesota e dell' Alabama, Mayo Clinic), finanziata dai National institutes of health, l' agenzia governativa americana per la ricerca biomedica. Lo studio ha voluto inoltre verificare su un gruppo di 255 persone, che avevano donato un rene fra i 3 e i 45 anni prima, alcuni parametri biologici. I risultati sono stati positivi: la maggioranza dei donatori, per lo più famigliari dei pazienti, ha mostrato una qualità di vita simile o migliore di quella della popolazione generale, tassi di sopravvivenza e rischio di insufficienza renale sovrapponibili. La ricerca fornisce così un ulteriore supporto scientifico, utile anche per l' Italia dove, a fronte di una leggera ripresa delle donazioni, si sta verificando una flessione dei trapianti, anche di quelli di rene da vivente: 104 nel 2007; 100 nel 2008 (ma i dati si fermano al 30 novembre), il 70 per cento da consanguinei, con una lista d' attesa di 3 anni. Per sensibilizzare l' opinione pubblica e i medici (sono calate le segnalazioni da parte loro), il ministero della Salute sta per pubblicare una guida informativa, redatta in base alle linee-guida sul trapianto di rene da vivente, elaborata a novembre dalla Consulta nazionale per i trapianti alla quale hanno partecipato anche le associazioni dei pazienti. «Il donatore deve essere consapevole, avere garanzie e preparazione precise - spiega Anna Maria Bernasconi, presidente dell' Associazione nazionale emodializzati -: non deve esserci nessuna costrizione e deve essere comunque informato di tutti i possibili rischi, da quello chirurgico fino al possibile insuccesso del trapianto, espressi in maniera scientifica con i numeri, e non sulla scorta di opinioni». R.S. 952 i trapianti di rene da donatore vivente eseguiti da gennaio 2000 a novembre 2008 (Centro nazionale trapianti) R.S.