Seguimi in Twitter Seguimi in Facebook Seguimi in Pinterest Seguimi in LinkedIn Sottoscrivi il feed

settembre 29, 2010

Diretta Parlamento:  il voto sulla fiducia al governo Berlusconi.
Alla Camera oggi il governo Berlusconi è atteso da un appuntamento chiave della legislatura: il voto di fiducia dopo il discorso del premier sui 5 famosi punti programmatici per rilanciare l'azione del governo.

Tra poco il voto. Il premier parla di "odio che divide il Paese" e promette meno tasse. Poi chiede lo scudo giudiziario, attacca i magistrati e apre a Fli.

Il dibattito verrà trasmesso in diretta tv dalle ore 16.30, mentre alle 19 ci sarà lo scrutinio con chiamata nominale

Occhi puntati sul gruppo di Futuro e Libertà, anche se le truppe finiane hanno dichiarato che sosterranno il governo. La decisione finale verrà presa dopo il discorso di Berlusconi.

Il Presidente della Camera spera di ottenere il riconoscimento dei futuristi come "terza gamba" del governo, Berlusconi, secondo la maggior parte dei commentatori, avrebbe puntato a un allargamento della maggioranza per rendere superflui i voti dei finiani, arrivando a 316 senza il loro aiuto.

Certamente il governo potrà contare sui "dissidenti siciliani" dell'Udc, che ieri hanno ufficializzato la scissione e su singoli parlamentari che in questi giorni si sono avvicinati alla maggioranza.


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 28, 2010

I dinosauri 'con le corna ' del continente perduto sono state scoperte da un'équipe dell'Università dello Utah.
Due nuove specie "cornute" scoperte nello Utah, che nel Cretaceo faceva parte di una massa terreste isolata, Laramidia

Due nuove specie di dinosauro, con ornamenti corporei tra i più elaborati e bizzarri mai ritrovati, sono state scoperte da un'équipe dell'Università dello Utah.

Appartengono alla famiglia dei Ceratopsidi, che comprende anche il triceratopo: erbivori quadrupedi caratterizzati da corna e altre protuberanze ossee che crescevano sul retro della testa.

Il più grande dei due dinosauri, Utahceratops gettyi, aveva un cranio lungo due metri e mezzo: "Era un rinoceronte gigante con una testa enorme e ridicola", dice Mark Loewen, coautore della ricerca. L'altro, Kosmoceratops richardsoni, "era uno degli animali più bizzarri che si conoscano, con tutta una serie di gingilli che gli decoravano il capoccione", aggiunge Scott Sampson, che ha guidato l'équipe di scienziati dell'équipe. La testa di Kosmoceratops era tutta coperta di corni: uno sul naso, due sugli occhi due alla base delle guance, e diversi su tutto il collare osseo.
"Gran parte di questi ammennicoli non sarebbe servita a granché contro i predatori", spiega Sampson. Molto più probabilmente, erano un richiamo sessuale per attirare i partner o intimidire i rivali.


Diversi fossili - anche se non completi - di entrambi i dinosauri sono stati trovati nel Grand Staircase-Escalante National Monument, nello Utah, che un tempo faceva parte del "continente perduto" di Laramidia. Durante il Cretaceo, la regione centrale dell'America del Nord restò sommersa, separando per 30 milioni di anni l'Est e l'Ovest del continente. La parte occidentale diventò una massa continentale emersa a sé stante.

"Un viaggiatore nel tempo che sbarcasse nel Cretaceo potrebbe andare in barca dal Golfo del Messico fino al Mar Glaciale Artico senza mai vedere terra", dice Thomas Holtz, paleontologo dell'Università del Maryland. L'antico continente di Laramidia è oggi una miniera di fossili, anche perché all'epoca era interessato da un'intensa attività geologica. "Si stavano formando le Montagne Rocciose", prosegue Holtz. "I movimenti tellurici facevano innalzare montagne e ne spezzavano altre, i sedimenti precipitavano in pianura e andavano a formare, con il tempo, la roccia sedimentaria che ha preservato tutti questi fossili".


Utahceratopse e Kosmoceratops sono solo gli ultimi due dinosauri cornuti scoperti di recente in giro per il mondo: tutto fa pensare, sostengono gli autori della ricerca, che altri verranno presto dissotterrati. Il nuovo studio è stato pubblicato dalla rivista online PLoS One.

fonte: National Geographic Italia


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 22, 2010

Le cardiochirurgie sono troppe, i malati pochi e c'è chi avanza sospetti. Ma in molte regioni mancano gli strumenti di controllo.
Finire sotto i ferri per un intervento al cuore senza averne bisogno, essere operati da sani, o da malati non proprio gravi.

Fra le possibili preoccupazioni di un paziente è una delle ultime, tanto che, nella miriade di segnalazioni di presunti errori medici che giungono al Tribunale per i diritti del malato, non se ne trova traccia.

Ma questo è il sospetto che ha portato un prelato di Vigevano a denunciare il primario di cardiochirurgia dell'ospedale Humanitas di Rozzano, Roberto Gallotti, e la procura di Milano ad avviare un'indagine ipotizzando lesioni volontarie in questo e in altri casi.

A breve il pm Maurizio Romanelli deciderà se ci sono elementi per chiedere un rinvio a giudizio, ed eventualmente con quali capi d'imputazione. Ma questa vicenda, su cui ha riacceso i riflettori Striscia la notizia, suscita interrogativi che vanno oltre l'inchiesta.

Lo scenario è quello di una specie di mondo alla rovescia dove la pressione a operare, così da ottenere i rimborsi delle prestazioni dalla regione e giustificare l'esistenza di reparti cardiochirurgici, è tanto forte da far passare in secondo piano ciò che è meglio per la salute del paziente.

Da un punto di vista scientifico gli specialisti interpellati da Panorama sottolineano che, come in tutte le branche della medicina, esistono in cardiochirurgia zone d'incertezza in cui la decisione se operare o no dipende da fattori complessi. Basta un'interpretazione leggermente diversa degli esami o dei sintomi e la bilancia pende a favore di una decisione o del suo opposto.
È lo sfondo in cui queste scelte avvengono a essere preoccupante. «Oggi non abbiamo un sistema di cura, ma di prestazioni. E il ricatto "perché non operi?" esiste ovunque» riconosce un cardiochirurgo che non vuole essere identificato.

In Lombardia, per esempio, ci sono 21 centri di cardiochirurgia per 9 milioni di abitanti. Le statistiche suggeriscono che per soddisfare l'esigenza di interventi della popolazione ne basterebbe meno della metà: una per milione di abitanti. Nella parte sulle malattie cardiovascolari dell'ultimo piano sanitario regionale si afferma che le cardiochirurgie lombarde «risultano ora complessivamente superiori alle immediate necessità» e che è «obbligatorio non aprirne di nuove». Nonostante ciò, l'ospedale San Giuseppe, che ha cambiato di recente gestione, sembra aspirare a diventare un centro specializzato, come dichiara fin dal nuovo nome: Milanocuore-San Giuseppe.



Per sapere se si fanno troppi interventi o troppo pochi, gli strumenti ci sarebbero: in gergo si chiamano studi di appropriatezza. «Un gruppo di esperti ipotizza una serie di scenari clinici e, in base alle conoscenze disponibili, valuta in quali casi l'intervento deve essere effettuato. Poi si confrontano gli scenari teorici con quelli reali degli ospedali e si calcola se le indicazioni sono rispettate» spiega Aldo Maggioni, direttore del Centro studi Anmco, associazione dei cardiologi ospedalieri.

Analisi del genere sono state svolte una decina di anni fa, proprio in Lombardia, per i bypass aortocoronarici e le angioplastiche. Allora risultò che si operava poco e c'erano lunghe liste d'attesa. In dieci anni, però, la situazione si è ribaltata: le cardiochirurgie sono più che raddoppiate, le liste d'attesa azzerate e non si sa più se gli interventi sono troppi, pochi, o il giusto. Anche in altri settori è lecito domandarselo: gli interventi di angioplastica coronarica, di pertinenza della cardiologia interventistica, per esempio, sono aumentati del 30 per cento in tre anni, dal 2003 al 2005.

L'unica regione in cui esiste un registro pubblico degli interventi cardiochirurgici è l'Emilia-Romagna, che ha sei cardiochirurgie, quattro private e due pubbliche, per 4 milioni di abitanti. «Viene monitorata la mortalità per tutti gli interventi e si raccolgono le informazioni che consentono di valutare l'appropriatezza» spiega Roberto Grilli, direttore dell'Agenzia sanitaria regionale.

Tempo fa, per esempio, i dati evidenziarono tassi di mortalità troppo elevati in uno dei centri, cui fu subito chiesto di correre ai ripari (cosa che secondo i dati successivi è poi avvenuta). I dati raccolti e periodiche indagini a campione sulle cartelle cliniche consentono di valutare anche l'appropriatezza. «Ma finora non si sono evidenziati problemi» afferma Grilli. Si evitano così gli interventi inutili? «È più difficile che maturino le condizioni perché l'inappropriatezza diventi epidemica».

STENT A PIOGGIA.

Le cifre della cardiochirurgia
- In Italia si eseguono circa 55 mila interventi cardiochirurgici l'anno: per l'80 per cento si tratta di sostituzioni e riparazioni delle valvole cardiache e di bypass aortocoronarici. (Fonte Sicch)
- Nel 2005 si sono fatte in Italia oltre 250 mila coronarografie e circa 116 mila interventi di angioplastica coronarica, per la maggior parte inserimento di stent: nel 2003 erano stati 88 mila. (Fonte Gise)


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:


fonte: Panorama
Tbc, un vecchio nemico mai sconfitto, la malattia diventa più aggressiva.
La minaccia oggi è rappresentata da nuovi ceppi del batterio ultraresistenti. Tutti gli antibiotici in uso non riescono a vincere l'infezione. In fase di studio ci sono solo sei farmaci.

Occorrerebbe puntare anche su test di diagnosi più rapidi e su un vaccino efficace. Ma gli investimenti non bastano

Delle malattie infettive curabili è quella con la più alta mortalità. La tubercolosi nell'ultimo secolo ha probabilmente ucciso oltre 100 milioni di persone, nonostante che a partire dagli anni 40 fosse disponibile una terapia per curarla. Ancor oggi il batterio responsabile della malattia, il Mycobacterium tuberculosis che Robert Koch scoprì nel 1882, fa ogni anno 2 milioni di vittime, 5 mila al giorno; e si aggirano sui 9-10 milioni i nuovi casi annuali di infezione nel mondo.

Non bastassero queste cifre a dipingere un cupo scenario, ora si profila un'altra minaccia: l'emergenza di ceppi di batteri della tbc ultraresistenti, ossia contemporaneamente insensibili ai principali farmaci efficaci in uso, che gli esperti chiamano di prima linea (isoniazide e rifampicina) e di seconda linea (fluorochinoloni, più uno dei tre farmaci iniettabili).

Perché sia disponibile un nuovo farmaco (sei quelli in fase clinica) che possa ovviare al problema pare si debba attendere fino al 2011-2012. Nessuna soluzione si profila in tempi rapidi. Un'emergenza, quella dei ceppi ultraresistenti di tbc, già nota ai medici che operano nell'Est europeo e nei paesi dell'Asia centrale, e di recente segnalata anche in Sud Africa, nel distretto rurale di Kwazulu-Natal.

Su circa 1.500 persone seguite dal gennaio 2005 al marzo 2006, riferisce Lancet, 53 si sono ammalate con questa nuova forma aggressiva di tbc e 52 sono morte nel giro di 44 giorni. «Inquietante il fatto che oltre la metà di loro non avesse ricevuto prima alcuna terapia.

Significa che non hanno sviluppato resistenza durante il trattamento, ma che si sono contagiati in partenza con un ceppo ultraresistente, forse anche particolarmente infettivo» dice Martina Casenghi, biologa, che ha redatto per Medici senza frontiere (Msf) un'analisi aggiornata sullo stato dell'arte dei farmaci allo studio per la tbc e sui finanziamenti per ricerca e sviluppo.
Il germe della tubercolosi, che si trasmette per via aerea, una volta inalato raggiunge gli alveoli polmonari ed è catturato da cellule del sistema immunitario, i macrofagi. Lì può restare inattivo, o latente, anche per molti anni. Solo nel 5-10 per cento dei casi la reazione delle difese immunitarie, esattamente dei linfociti T, non riesce a tenerlo sotto scacco e la malattia si manifesta.

Il rischio è maggiore nei bambini più piccoli e in chi è immunodepresso, denutrito e vive in condizioni di igiene precarie. La forma classica dell'infezione è quella polmonare, ma nei malati di aids, che nel 50 per cento dei casi sviluppano la tbc attiva entro due mesi, le localizzazioni extrapolmonari sono più frequenti.

La diffusione di ceppi ultraresistenti in zone come l'Africa subsahariana, dove un sieropositivo su tre è infettato anche con la tbc, rappresenta una seria minaccia per la salute globale. Un'emergenza sottolineata l'ottobre scorso da Medici senza frontiere alla Conferenza mondiale sulle malattie polmonari a Parigi e di cui l'organizzazione, Nobel nel 1999, è tornata a parlare a Milano il 17 novembre in una conferenza internazionale sul tema dell'accesso ai farmaci.

Non è solo un problema di soldi investiti, e quelli per la ricerca sulla tbc nel 2005 sono stati 393 milioni di dollari contro i 2 miliardi ritenuti necessari per sviluppare nuovi strumenti per combatterla efficacemente, ma anche di politiche sanitarie. Un esempio: in Usa il National health institute spende di più per la ricerca sulle armi biologiche, vaiolo e antrace che non per la tbc o la malaria, le due malattie infettive più letali al mondo.

«Si vorrebbe una risposta a questa emergenza come per la sars o l'influenza aviaria. Se non si disporrà al più presto di armi efficaci, nuovi farmaci e test appropriati, rapidi, a basso costo per una più corretta diagnosi, sarà difficile ridurre la trasmissione e controllare la diffusione della ultraresistenza dei nuovi ceppi» precisa Casenghi.

Le medicine oggi in uso sono ancora quelle scoperte tra gli anni 50 e 60. Il test diagnostico, la tubercolina, messo a punto più di un secolo fa, individua solo un malato su due, e il vaccino risale agli anni 20: protegge poco ed è ormai quasi abbandonato.
«In un'epoca in cui le biotecnologie hanno permesso innovazioni incredibili, ci si aspetterebbero progressi maggiori. Purtroppo si pensa che l'infezione riguardi il Terzo mondo, dove non ci sono risorse economiche per acquistare un vaccino per la tbc e quindi non si investe su questo filone di ricerca. Non diversamente vanno le cose per un candidato vaccino per la malaria» si rammarica Maurizio Bonati, epidemiologo al Mario Negri di Milano.

Dei 1.556 nuovi medicinali approvati tra il 1975 e il 2004 solo l'1,3 per cento era per le malattie tropicali e la tubercolosi: corrispondono al 13 per cento del carico di malattia globale. «La logica dei profitti che regola lo sviluppo dei farmaci penalizza inevitabilmente la ricerca per patologie che fanno ogni anno milioni di vittime ma non costituiscono un mercato allettante perché i pazienti non hanno un potere di acquisto.
Vale non solo per malaria e tbc, ma anche per leishmaniosi, chagas, filariosi, schistosomiasi, malattia del sonno» ricorda Nicoletta Dentico, già direttore esecutivo in Italia di Msf, ora impegnata con Drugs for neglected diseases initiative (Dndi), network nato nel 2003.

Per fronteggiare il problema si stanno formando diverse «product development partnership», una è la Tb Alliance, funzionano come laboratori virtuali e lavorano in stretto contatto con istituti pubblici di ricerca, università, industrie farmaceutiche. «Una risposta all'inerzia politica che rende il panorama meno deprimente, ma che risulta insufficiente senza la leadership dei governi, non solo quelli più ricchi» continua Dentico.

La questione della resistenza agli antibiotici nella tbc esiste da quando si è cominciato a usarli. E già da una decina di anni si parla di ceppi multiresistenti, difficili da combattere solo con i due farmaci di prima linea più efficaci a disposizione. Focolai difficili da controllare anche con quelli di seconda linea sono comparsi anni fa nelle prigioni russe e in alcuni ghetti delle megalopoli americane.

«La terapia a questo punto è diventata una combinazione dei vari farmaci disponibili e il trattamento delle forme multiresistenti si è fatto più complesso, più lungo e anche più costoso» dice Issa el-Hamad, coordinatore del Centro di salute internazionale di Brescia. Gli epidemiologi stimano che circa 425 mila, sui 9-10 milioni di nuovi casi di tbc, manifestino resistenza a diversi degli antibiotici usati. Nel 2004 quasi i due terzi di questi sarebbero stati in Cina, India e Russia

La situazione, secondo il Dipartimento Stop Tb, presso l'Oms, tende ad aggravarsi: dal 1990 il tasso stimato di incidenza della tbc a livello globale continua a essere in aumento in maniera lieve ma progressiva (circa l'1 per cento l'anno). In Africa a causa della concomitante epidemia di aids la tbc è in crescita del 5-6 per cento l'anno. Stesso incremento nell'Est Europa, dove l'infezione è aumentata rapidamente dagli anni 90 con il deteriorarsi delle condizioni socioeconomiche.

L'epidemia di aids favorisce e aggrava le coinfezioni tubercolari. Se negli ultimi 60 anni nei paesi industrializzati di Europa e Nord America campagne di prevenzione e terapia hanno permesso la progressiva riduzione dell'incidenza di tbc, nei paesi del Terzo mondo la mancanza di strutture sanitarie, di programmi per il controllo dell'infezione e lo scarso interesse della comunità internazionale hanno fatto fallire tutte le politiche di controllo fino agli anni 80.

L'Oms comincia a occuparsi di tbc nel 1947; all'inizio degli anni 90, quando l'infezione esce dall'ombra e si ripresenta come un'emergenza, adotta una nuova strategia, poi chiamata Dot (Directly observed treatment) che prevede il controllo del medico. Uno dei problemi della terapia è la sua durata, da tre a sei mesi, e la necessità in questo periodo di assumere i farmaci senza interruzioni. «Se si sbaglia a prenderli o a prescriverli, si possono sviluppare resistenze» sottolinea el-Hamad.

I risultati dell'Oms? Al Dipartimento Stop Tb rispondono che se nel 1990 meno di dieci paesi possedevano un adeguato programma nazionale per il controllo dell'infezione, oggi 183 su 211 paesi e territori hanno adottato la strategia Dot. Negli ultimi dieci anni 21,5 milioni di persone sono state trattate con questo programma.

Ma non è stato sufficiente per evitare rischi che, in situazioni estreme, sono inevitabili. In assenza di terapia antiretrovirale (e i farmaci per l'aids sono oggi accessibili nell'Africa subsahariana solo a un malato su sei, dei 4,7 milioni che ne avrebbero urgente bisogno), la tbc resta la più frequente causa di malattia e mortalità nelle persone adulte con l'hiv. Si stima che circa 11 milioni di adulti con aids nel mondo abbiano una coinfezione tubercolare: per il 22 per cento sono nel Sud-Est asiatico e per il 70 nell'Africa subsahariana, dove sette su dieci malati di tbc sono sieropositivi.

Uno degli obiettivi di sviluppo del Millennio lanciati nel 2000 dalle Nazioni Unite, i Millennium development goals, era ridurre l'incidenza delle tre grandi epidemie, aids, malaria e tbc, entro il 2015. Ora, con un budget di 17 milioni di dollari, parte il primo progetto del Fondo globale per la lotta a queste malattie.

Obiettivi ottimistici che spesso sono stati ridimensionati, come è avvenuto per l'aids e l'accesso ai farmaci. Nel 2003, sulla scia del dibattito sull'accesso alle terapie nei paesi più poveri, l'Oms fissò un obiettivo parziale ma ambizioso: garantire entro il 2005 ad almeno 3 milioni di malati di aids le cure salvavita.

La metà di quelli che si stimava ne avessero urgente bisogno nel Sud del mondo. Il risultato è lontano dal traguardo. A dicembre 2005 solo 1 milione 300 mila malati, forse meno, hanno ricevuto gli antiretrovirali che nei paesi ricchi hanno più che dimezzato la mortalità.

«Ci sarebbe urgente bisogno di accorciare i tempi delle terapie. Cure più brevi, non più di sei mesi, renderebbero più facile l'aderenza e il completamento della medesima» dice Casenghi. I presidi sanitari sono spesso troppo lontani e quando la gente sta meglio non va più a prendere i farmaci. Poi? «Occorrono farmaci che si possano assumere con gli antiretrovirali.
La rifampicina, per esempio, può interagire in modo pericoloso con gli antiretrovirali comunemente usati, come la nevirapina e gli inibitori della proteasi. Occorrono inoltre nuove molecole per i ceppi multiresistenti e ultraresistenti. Ma al ritmo dei test clinici attuali, che mettono a confronto un medicinale noto con un altro innovativo, ci vogliono almeno 24 anni per disporre di un nuovo regime terapeutico con più farmaci».

Il vaccino con il virus attenuato del Mycobacterium bovino, il vecchio Bcg, funziona solo nei più piccoli, ma non protegge dalla tbc polmonare di adolescenti e adulti. «Il riemergere dell'infezione in località dove il vaccino viene praticato a tappeto ne rivela i limiti» osserva Casenghi. «Ricerche sono in corso per un vaccino che utilizzi un batterio geneticamente modificato o una sua subunità proteica in grado di prevenire infezioni e che la malattia si riattivi».

Allo studio anche un centinaio di molecole da usare come biomarcatori della tbc: potrebbero servire per monitorare l'efficacia dei farmaci e le possibili ricadute. Essenziali sarebbero il coinvolgimento e la comunicazione tra tutte le iniziative in corso: investimenti, progetti, ricerche. «Una trasparenza che potrebbe aiutare a raggiungere gli obiettivi e ad affrontare l'emergenza» conclude.


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 20, 2010

Wikipedia un fenomeno planetario, con 5 milioni di voci, in 200 lingue, scritte dagli stessi utenti.
È diventata un fenomeno planetario, con 5 milioni di voci, in 200 lingue, scritte dagli stessi utenti. Un certo margine di errore esiste, ma i controlli sono sempre più severi

La prima parola inserita su Wikipedia è stata appunto Wikipedia. La cui definizione recita così: «Enciclopedia online, multilingue, a contenuto libero, redatta in modo collaborativo dai volontari». La voce comparve nel gennaio 2001, digitata dagli americani Jimmy Donald Wales e Larry Sanger, fondatori di questo pozzo del sapere ai tempi di internet.

I due americani, un imprenditore e un professore col pallino dell'informatica, non potevano immaginare che quella provocazione, scagliata in rete fra incoscienza e utopia, avrebbe trasformato l'oligarchia dello scibile in una democrazia reale della conoscenza, dove i navigatori sono insieme elaboratori e fruitori della cultura universale.

Sei anni dopo l'enciclopedia scritta dagli utenti è un fenomeno planetario, lo strumento di ricerca più consultato con 60 milioni di accessi al giorno e quasi 5 milioni di voci in 200 lingue (compresi molti dialetti e il latino), considerato sostanzialmente attendibile non soltanto dagli studenti globali, che lo utilizzano per ricerche di qualsiasi tipo, ma anche da scienziati e studiosi.

Rispetto alle enciclopedie tradizionali il vantaggio è doppio: le informazioni sono capillari, perché chiunque può arricchire il bagaglio di nozioni inserendo, per esempio, la storia di un paesino sconosciuto oppure la recensione dettagliata di un disco del gruppo punk rock dei Clash. E tempestive, fedeli alla formula internettiana del tempo reale. Così nell'indice, accanto alla biografia di Robert Gallo e Luc Montagnier, scopritori del virus dell'hiv, c'è lo stilista francese Jean-Paul Gaultier, lo scrittore Niccolò Ammaniti, il fotografo Oliviero Toscani, Vladimir Luxuria e Luciano Moggi, con relative sentenze sportive di Calciopoli...

Contribuire alla redazione di Wikipedia è semplicissimo (basta avere un computer collegato a internet), ma a dispetto di quanto sostengono i molti detrattori, falsare gli articoli e distorcere le informazioni è quasi impossibile, come dimostra l'esperimento condotto da Panorama.

Cominciamo con cautela, correggendo qualche svista grammaticale riscontrata qua e là. Dopo aver cliccato sul link «modifica», in cima alla pagina, come promette il fonema wiki (che nella lingua dei nativi hawaiani significa veloce), le correzioni vanno in porto nello spazio di pochi secondi.

Fase due: inserire una voce nuova.

È altrettanto facile, a patto di rispettare le regole. Introduciamo la descrizione relativa a un libro il cui titolo manca nell'indice, attenendoci alla wiki-etichetta: correttezza di forma e contenuti, niente partigianerie, vietati i punti di vista personali e i giudizi.

L'operazione funziona bene e rapidamente anche in questo caso: la nuova pagina è in rete con la benedizione degli amministratori, che in realtà sono utenti fidati (in Italia un'ottantina su un totale di 150 mila registrati) eletti dai navigatori per controllare il lavoro collegiale e dirimere i conflitti interpretativi, discussi in specifiche sezioni ed eventualmente messi ai voti.

Fase tre: proviamo a trasgredire, inserendo una pagina pubblicitaria mascherata da nozione culturale.

Immediatamente scatta il protocollo di cancellazione della voce e dopo 30 secondi la pagina viene eliminata e appare una diffida dal ripetere «atti vandalici» (vengono così chiamati pubblicità, spamming, messaggi personali, false informazioni).

A dimostrazione che i controlli esistono e sono anche severi.

Un rimedio esiste anche quando l'errore sfugge ai vigili del gigantesco portale. In questo caso ci pensano gli stessi utenti, che intervengono segnalando strafalcioni, abbagli e inesattezze. Uno studio dell'Ibm, citato da Vittorio Sabadin nel libro L'ultima copia del New York Times (Donzelli), calcola che la vita media delle false informazioni inserite su Wikipedia sia di 5 minuti.
Già nel 2005 la rivista Nature aveva affidato a un gruppo di esperti il compito di confrontare la pluricentenaria Enciclopedia Britannica con il giovane sfidante telematico. Ecco il risultato: quattro errori in media negli articoli scientifici di Wikipedia contro i tre della Britannica.

Niente male per un'opera scritta dalla gente comune, che ha progressivamente ridotto il rischio di errore (il difetto più evidente in un meccanismo di libertà illimitata), grazie alla supervisione di migliaia di wikipediani, volontari del sapere autogestito sparpagliati da un angolo all'altro del globo. Assicurano la quantità delle informazioni (ogni giorno vengono inserite oltre 2.500 nuove voci) e quasi sempre la qualità. E tengono a bada la «edit war», guerriglia della scrittura e della modifica, blindando le voci più appetibili per i vandali della cultura a seconda delle esigenze storiche.

In questo periodo, per esempio, le pagine del terrorismo rosso italiano sono inaccessibili alle modifiche. L'anarchico Giuseppe Pinelli e la strage di piazza Fontana non si possono alterare, troppo alto il rischio, dopo gli arresti recenti di presunti brigatisti, di inserire notizie false o faziose. Così, se oggi tocca alla playmate Anne Nicole Smith, morta da poco e fra mille polemiche, la temporanea sospensione degli aggiornamenti, l'anno scorso fu la volta delle foibe: anche in questo caso gli amministratori dovettero intervenire per riportare la verità storica ed evitare il fiorire di opinioni.

Le quali, tuttavia, sono visibili nello spazio dedicato alle discussioni, una sorta di grande forum organizzato dei punti di vista personali.

«Il metodo sarà forse imperfetto» sostiene Wales, il visionario che oggi si ritrova a gestire l'opera omnia della democrazia digitale e a difenderla dagli attacchi di chi vorrebbe screditarla a tutti i costi, «ma è da questo metodo che scaturisce la definizione perfetta, quella in continuo aggiornamento e divenire, e anche quella che sulle enciclopedie ortodosse manca». Del resto sarebbe impossibile anche solo immaginare una summa cartacea che alla S propone Saviano Roberto, scrittore la cui fama si è consolidata in tempi recentissimi, con link alla stampa internazionale che ha parlato di lui.

Dove si potrebbe mai apprendere che un'altra giovane scrittrice, la dark-lady Isabella Santacroce, viaggia col suo inseparabile chihuahua Cichito e ha una casa sperduta nel bosco viennese tra pipistrelli meccanici e grosse mosche in metallo?

Gli incontentabili wikipediani integrano le voci indicizzate con curiosità ispirate dai racconti popolari, dalla tradizione orale, dai libri di storia. Di Napoleone c'è scritto, fra le altre cose, che i francesi lo chiamavano «le petit tondu» (il piccolo calvo) e gli inglesi «Boney», contrazione dispregiativa di Bonaparte. Capita, quando il sapere scende dalla cattedra e arriva dentro casa.
Di Giacomo Leopardi si legge che la madre era «bigotta» e non solo severa, come vuole la versione ufficiale. Capita, quando il lettore è anche l'autore dell'enciclopedia.


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 19, 2010

Voglio un figlio perfetto. Ma si può? Il futuro dietro l'angolo, le promesse della scienza.
I cinesi vogliono bambini maschi. I canadesi preferiscono le femmine.

E per chi dispone di 20 mila dollari, viaggio compreso, soddisfare questo desiderio è possibile. Basta cliccare sul sito dei Fertility Institutes di Los Angeles per capire: i cinesi che lo visitano ogni mese sono 140 mila, superati solo dai canadesi. Al centro californiano arrivano da tutto il mondo, una quarantina i paesi elencati nel sito, tra cui Germania, Repubblica Ceca, Messico, Nuova Zelanda, Australia.

Negli Usa non esiste una regolamentazione che vieti la selezione del sesso a chi si affida alle tecniche di fecondazione assistita e alla diagnosi sugli embrioni così creati, prima di trasferirli in utero. Il programma di selezione del genere, maschile o femminile, «è garantito al 99,99 per cento» e in aggiunta viene «offerto» lo screening per almeno 200 malattie genetiche, avverte il website.

La diagnosi genetica preimpianto, o Pgd, messa a punto nel 1990 per individuare embrioni con serie anomalie genetiche, dalla fibrosi cistica alla distrofia muscolare, oggi è il metodo cui sovente si ricorre per la selezione del sesso, là dove la legge lo consente. E negli Usa, per i centri in cui è possibile, è diventato un florido business. «Una sorta di eugenetica su basi economiche e sociali per ottenere quelli che oggi si chiamano designer babies. Bambini con il sesso "giusto", come se essere femmina fosse una malattia» scrive Marcy Darnowsky, che dirige il Center for genetics and society, sulla rivista GeneWatch.

L'evoluzione rapida delle biotecnologie allarga talmente il mercato delle opzioni da indurre essa stessa nuovi desideri. E scorciatoie. La scelta del sesso viene affidata anche a metodi sofisticati, come il MicroSort, che rende fluorescenti i cromosomi: l'X, quello femminile, contiene più dna dell'Y, il maschile. Il Genetics & Ivf institute ha dal 1995 il brevetto per questa tecnica sullo sperma umano. E da allora è stata perfezionata.

A quasi trent'anni dalla nascita di Louise Brown, il primo essere umano a essere concepito in provetta, le tecnologie della riproduzione hanno rivoluzionato il modo di fare i bambini. Li si sceglie in base al sesso, non solo per evitare una malattia come l'emofilia, ma anche per attuare, come in Cina e India, una selezione definita sociale. «Pratica questa non consentita nei paesi dell'Unione Europea» ricorda Andrea Borini, presidente del Cecos (Centro studi e conservazione del seme) e dell'Osservatorio sul turismo procreativo.

Si selezionano gli embrioni in modo che non siano portatori di anomalie cromosomiche e genetiche. Non più solo a gravidanza avanzata, con l'amniocentesi o con l'ecografia ora in 3D, ma prima ancora di trasferire gli embrioni in utero, se la fecondazione è artificiale. In Italia la legge 40 lo vieta, ma si moltiplicano i viaggi all'estero per affidarsi a tecniche riproduttive qui proibite: dalla diagnosi preimpianto al congelamento degli embrioni, dalla fecondazione di un numero non limitato di ovociti al ricorso alla donazione di sperma e ovociti.

Dopo la clonazione della pecora Dolly, dieci anni fa, si erano immaginati inquietanti scenari, mai avverati: i cloni umani annunciati sei anni fa dalla setta dei raeliani e dal ginecologo Severino Antinori non sono mai nati. Tuttavia, senza che ce ne accorgessimo, in maniera pervasiva, tecniche e pratiche talora azzardate ci hanno fatto intravedere ciò che si celava nello scrigno dello «shopping al supermercato genetico», come lo ha definito Jürgen Habermas, filosofo e sociologo tedesco.

I giornali riportarono qualche anno fa la notizia di quella coppia di lesbiche audiolese che, usando il seme di un amico privo di udito, misero al mondo un figlio sordo. A loro immagine. Il desiderio è avere una progenie il più possibile su misura. E con le possibilità di scelta offerte crescono le problematiche.

Oltre agli embrioni con gravi anomalie genetiche, si vogliono evitare anche quelli potenzialmente predisposti a malattie multigenetiche, come tumori di tipo ereditario. «In certi casi diventa arduo tracciare un confine tra sano e non, tra malattia e non, perché il margine può essere molto sottile» dice Anita Regalia, ginecologa al San Gerardo di Monza. Chloe Kingsbury, due anni, nata con la fecondazione in vitro, è stata per esempio selezionata fra molti embrioni perché non fosse portatrice del gene che predispone al tumore del colon.

Lo aveva il padre e quindi c'era un 50 per cento di probabilità che lo trasmettesse alla prole. Questa mutazione genetica espone a un rischio 20 volte maggiore. Se Chloe fosse stata concepita in modo naturale avrebbe avuto una possibilità su tre di avere questo tumore, di solito intorno ai 45 anni. È vero che chi ne è colpito ha buone probabilità di sopravvivenza, ma solo se la diagnosi è tempestiva.

In Gran Bretagna, appellandosi alla possibilità prevista sin dal maggio 2006 dallo Human fertilization and embriology authority (Hfea), quattro donne chiederanno il prossimo mese di escludere dall'impianto in utero embrioni portatori di due geni: il Brca1e il Brca2, che predispongono al cancro al seno là dove c'è una storia familiare di questa malattia. Una delle donne, Amanda Spencer, 33 anni, ha scoperto di avere il tumore tre anni fa.
Lo stesso male aveva colpito la madre, sottoposta a doppia mastectomia, e la nonna, che ne è morta. Ora ha un bambino di 5 anni, ma ne vorrebbe un altro. «Desidero che i miei embrioni siano scelti dopo un controllo genetico».

Il Brca1 e il Brca2 sono geni oncosoppressori: controllano la crescita cellulare e bloccano la formazione di tumori. Se danneggiati, non svolgono più questo compito. Il fatto che lo siano non significa la certezza di avere un tumore al seno.

«Sono geni polimorfi con infinite mutazioni, con una qualsiasi anomalia il rischio è due o tre volte maggiore. Nelle famiglie in cui ricorrono molti casi, vuol dire che circola una variante del gene particolarmente aggressiva e allora si parla di percentuali di rischio dell'80 per cento» spiega Silvia Franceschi, epidemiologa allo Iarc di Lione. In situazioni simili, secondo Regalia, la fragilità umana è messa a dura prova. «Diverso è scegliere un gene che espone con assoluta certezza a malattia e a sofferenze» dice.

Intanto, mentre il dibattito bioetico su questi temi diventa pubblico e coinvolge scienza, religione e politica, il futuro della natura umana (come recita il titolo di un saggio di Habermas) viene messo in discussione. Ha fiuto, e non sarebbe la prima volta, Michael Crichton che nel suo ultimo libro Next afferma come leggi, normative e dibattiti etici non riescano a tenere il passo con quello che avviene nei laboratori di ricerca.

Naonati in una nursery. Le malattie genetiche e cromosomiche individuabili grazie alla diagnosi preimpianto sono numerose. Tra queste: fibrosi cistica, talassemia, emofilia, distrofia muscolare e sindrome di Down.

Il futuro è già presente o, per usare le parole di Francis Fukuyama, siamo già entrati nell'era postumana? Il liberismo genetico propugnato da molte associazioni prevede un futuro in cui sarà possibile trasferire materiale genetico per ottimizzare attributi o capacità, migliorando tratti umani non patologici. Una nuova forma di eugenetica che entra dalla porta di servizio? Se lo chiedeva anni fa il sociologo americano Troy Duster nel saggio Backdoor to eugenics.
Lo scenario è quello di bambini programmati non solo per essere privi di deficit genetici, ma su ordinazione, con caratteristiche fisiche e mentali scelte dai genitori: altezza, intelligenza, nessuna propensione a timidezza, depressione, uso di droga o alcol, meglio se con gli occhi azzurri, e magri. E chissà: se il «prodotto bambino» corrisponderà proprio a quello che si voleva, si potranno usare le sue cellule riproduttrici per creare embrioni a sua immagine e somiglianza.

Ma è proprio così? «Sono fantasie che rispecchiano gli aspetti irreali e sensazionali prodotti dall'informazione su tutto ciò che riguarda la manipolazione genica. La realtà è più complessa. Anzitutto, pur conoscendo il profilo genetico dell'individuo che si vuole selezionare, il fenotipo finale sarà definito in modo molto probabilistico. Ci sono i geni, ma anche ciò che sta attorno a loro, l'epigenetica, è un meccanismo importante di indeterminazione» avverte Silvia Garagna, biologa dello sviluppo all'Università di Pavia.

E poi è arduo, se non impossibile, modificare tratti multigenetici. «È già difficile con quelli monogenetici, come la fibrosi cistica. Prova ne sia che la terapia genica, su cui si ponevano molte speranze, ha dimostrato di essere ancora lontana, per gli ostacoli che comporta sostituire un solo gene e far sì che funzioni poi nel modo corretto» aggiunge Carlo Alberto Redi, biologo dello sviluppo e membro dell'Accademia dei Lincei.

Forse in futuro sarà possibile scegliere in base ai geni il colore degli occhi. Ora no. Non si conoscono tutti i geni che ne determinano il colore. Negli esseri umani quelli noti sono tre e spiegano lo schema che ci fa ereditare occhi marroni, verdi e azzurri. Ma non ci dicono tutto. E quelli grigi, nocciola, con sfumature di azzurro o verde? Non sono note le basi molecolari di questi geni. Alla nascita i bambini hanno tutti gli occhi blu, poi cambiano. Perché non si sa. L'idea poi che si possa intervenire sul dna degli embrioni per eliminare malattie o modificarli geneticamente è lungi dall'essere percorribile. «Già con i topi è molto difficile.

Lo sperimentatore può iniettare nel nucleo di un uovo di topo fecondato da uno spermatozoo, un gene modificato con l'ingegneria genetica (transgene) e poi trasferirlo nell'utero di una topina. Da quest'uovo si svilupperà un embrione e nascerà un animale che avrà modificato il transgene nel suo patrimonio genetico. In alcuni casi funzionerà e il topo sarà diverso dagli altri; accoppiandosi, trasferirà quel gene e le sue nuove caratteristiche ai figli. Ma stiamo parlando di topi» spiega Maurizio Zuccotti, dell'Università di Parma.

Finora si sono creati topi transgenici. Modelli animali per migliorare tratti come il tasso di sviluppo o la massa muscolare. «È probabile che questo tipo di ricerca porti a capire meglio i meccanismi di malattie ereditarie e possa essere più ampiamente applicata a migliorare tratti che a correggere patologie» scrive Kathy E. Hanna, che è stata consulente dell'ex presidente americano Bill Clinton alla National bioethics advisory commission (Nbac).

E fa un esempio. Di recente sono stati creati in laboratorio topi transgenici, gli «Schwarzenegger mice», con un gene inserito che accresce lo sviluppo dei muscoli. «È vero che la tecnica, se funzionasse, potrebbe portare sollievo a chi soffre di malattie degenerative che distruggono i muscoli, come la distrofia, ma nel mondo dello sport potrebbe essere potenzialmente usata per migliorare le prestazioni degli atleti» scrive Hanna.

Diversi i tipi di intervento che si possono prevedere, ma prima di poter trasferire il know-how dai topi ai figli del futuro ci vorranno anni. Forse decenni, dicono gli esperti. Ottenere animali transgenici, in cui il gene modificato funzioni correttamente, non è facile: bisogna costruire un'infinità di transgeni, iniettare centinaia di uova (cioè indurre centinaia di gravidanze). Dopo molto lavoro nascerà un topino transgenico con la caratteristica desiderata. Una soltanto.
Nulla di simile si può fare in campo umano, ma, nel caso fosse possibile, quali caratteristiche si potrebbero programmare? Intelligenza, creatività, tipo di carattere? Il gene dell'intelligenza non esiste. Inoltre, ciò che chiamiamo intelligenza dipende molto dall'ambiente. E i geni coinvolti sono tantissimi. L'esperienza fallimentare della banca del seme dei Nobel, il Repository for germinal choice, aperta nel 1980 in California, sta a dimostrarlo: i figli nati con quel seme non risultarono particolarmente intelligenti.

Selezionare solo gli embrioni con le caratteristiche desiderate, a meno che non si tratti di anomalie legate a un singolo gene, è oggi impensabile. «E poi tutti noi (quindi tutti gli embrioni) siamo portatori di caratteristiche genetiche indesiderabili, di geni che predispongono alle più svariate patologie (ipertensione, tumori, diabete...). Non è possibile selezionare l'embrione ideale. Se lo si facesse non nascerebbe più nessuno» ironizza Garagna.

Ma la cultura della perfezione, «dell'enhancement», è difficilmente arginabile. E porterà la ricerca scientifica, a grandi passi, in quella direzione. «Del resto già oggi accettiamo con sempre maggiore entusiasmo tutto ciò che migliora il nostro aspetto (lifting, collagene, iniezioni di botox) e il nostro comportamento (antidepressivi, Viagra e altro). Farmaci inizialmente sviluppati per scopo terapeutico vengono commercializzati per tutt'altro. È il mercato che ci condiziona in modo coercitivo verso la cosmesi farmacologica» conclude Darnowsky.


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 16, 2010

Ecco un oro che non luccica; l'impatto della World Wide Web.
Perché la rete e la produzione di software non sono mai stati quel regno della libertà che i guru della net-economy avevano annunciato. Tra nuove relazioni e veri cambiamenti.

Netslaves, schiavi della rete. L’espressione, nata in una delle tante mailing list fiorite alla metà degli anni Novanta del secolo scorso, indica ciò che molti sviluppatori di software e web-designer hanno imparato nel loro lavoro.

A leggere i loro racconti, raccolti poi in un libro che ha avuto molte ristampe e aggiornamenti (Netslaves, Fazi editore), ci si imbatte in orari di lavoro senza fine; in salari che superano la soglia di povertà per una manciata di dollari, in una precarietà nel rapporto di lavoro che negli Stati Uniti significa nessun accesso alle stock options e nessuna assistenza sanitaria.

Storie di vita scritte nel momento in cui la net-economy sembrava un eden dove la forza-lavoro era al riparo da gerarchie e sfruttamento.

Che la rete non fosse il paradiso, lo aveva già segnalato la causa avviata sempre agli inizi dell’era della new economy, da parte di alcuni «consulenti» di Microsoft. Questi si erano rivolti a un giudice perché loro, i cosiddetti temps, cioè i lavoratori a tempo determinato, svolgevano le stesse mansioni dei loro «colleghi» perms, ma erano esclusi dai benefits previsti dall’impresa di Bill Gates e Steve Ballmer per i propri dipendenti a tempo indeterminato. Il verdetto del giudice fu salomonico: quei lavoratori avevano ragione, ma la Microsoft aveva tutto il diritto a differenziare il rapporto di lavoro.

Sono solo due esempi che evidenziano come il World Wide Web e la produzione di software non siano mai stati quel regno della libertà che le teste d’uovo della net-economy avevano annunciato.

La rete era sì un luogo dove la crisi della grande impresa e dell’organizzazione tayloristica del lavoro aveva dato vita a nuovi rapporti di lavoro con caratteristiche certo differenti, ma non era sempre sinonimo di maggiore libertà. Questo non significa che non ci fosse stato un cambiamento, ma che tutto quel che luccicava non era oro.

L’assenza di gerarchie e la maggiore autonomia decisionale dei singoli dovevano vedersela con quel lavoro in team dove il controllo della produttività era delegata a quelle relazioni vis-à-vis che si sviluppano all’interno di un ristretto gruppo di persone. I coordinatori dei vati team fissano gli obiettivi e i tempi del progetto o alle parti del progetto che il gruppo deve sviluppare. Tempi, qualità e esecuzione del lavoro era delegato al team, all’interno del quale ognuno doveva controllare gli altri.

C’era dunque differenza tra la vecchia organizzazione piramidale dell’impresa e un processo produttivo scandito dal lavoro in team, ma questo non significa certo la dimensione coercitiva del lavoro. E poi c’era sempre l’eterno problema del salario. In una realtà, ad esempio statunitense, questo significava che in passato il movimento operaio aveva legato il salario alla produttività, mentre l’assicurazione sanitaria e la pensione facevano parte di quel welfare capitalism che tanto
ruolo aveva avuto negli Usa prima e durante i gloriosi trent’anni di sviluppo economico.

Per quanto riguarda la produttività mancavano e mancano parametri «oggettivi» per misurarla.

Non potevano essere, nel caso del software, le linee di programma codificate, perché quelle linee dovevano funzionare: una volte «scritte », andavano cioè verificate; e la verifica, le correzioni e la nuova verifica dilatavano sempre i tempi di realizzazione.

Ne poteva essere le scadenze assegnate ai singoli per svolgere un dato lavoro, visto che anche in questo caso quella timeline si dilatava, quasi che il tempo previsto per realizzare una parte del lavoro era una convenzione che tutti sapevano sarebbe ranza di una pensione «tranquilla» era riposta nei fondi pensione, legittimati da una legge ad andare in borsa. Il salario, tanto nella sua forma diretta che indiretta, diventava una variabile dipendente del capitale finanziario.

Una tendenza riferita non ai soli Stati Uniti, perché, come un mefitico virus, si è diffusa mutando a seconda dei diversi «habitat» in tutto il capitalismo, da Chicago a Milano, da Tokyo a Parigi. La rete come regno della libertà era quindi una narrazione fiabesca di un’isola che non c’è. Eppure, qualcosa nella produzione high- tech era accaduto.

La rete, come il software o la miniaturizzazione dei chip, ha bisogno di innovazione, di idee, di miglioramenti continui.

E l’innovazione è esito della cooperazione sociale, delle relazioni informali dentro e fuori il luogo di lavoro. Nasce da condivisione delle conoscenze, che non hanno padroni, ma rimangono di proprietà dei singoli. È questo il motivo che i quarant’anni di esistenza di Internet è stata scandita da continui interventi legislativi in materia di brevetti e copyright, in maniera tale che l’innovazione, le idee diventassero proprietà delle imprese. Il diritto d’autore e i brevetti non servono cioè solo a disciplinare le attività degli «utenti» della rete, ma anche a disciplinare e tenere sotto controllo la forza-lavoro.

E quando su Internet irrompe la produzione di software e di contenuti free o open source sono in molti a indicare nella organizzazione del lavoro messa in campo per la produzione del sistema operativo Linux la forma compiuta di un processo produttivo adeguato alla situazione della rete. Divisione del lavoro sempre definita collegialmente, verifica del prodotto delegata alla community degli sviluppatori, definizione di una gerarchia in base al merito.

Rimane il problema di come adattarla a una dimensione economia che faccia profitti. Finora, nessuna soluzione è risultata davvero efficace.

C’è però un altro elemento che risulta irriducibile a qualsiasi dimensione economica, fosse anche quella del «dono», come viene chiamata la produzione open in rete. In primo luogo, l’indifferenza, meglio l’ostilità a qualsiasi tentativo di «colonizzazione» della rete da parte delle imprese in nome della critica alla gerarchia qualunque essa sia – le discussioni più accese tra le centinaia di migliaia di uomini e donne che sviluppano Linux sono sempre sulla presenza di una gerarchia, seppur definita attraverso un criterio meritocratico - il lavoro come gioco, il desiderio di autonomia e indipendenza dalla imprese.

In altri termini, Internet è refrattaria a una completo addomesticamento, come testimonia il pamphlet letterario più corrosivo sul lavoro in rete, quel Microservi di Douglas Coupland dove un gruppo di programmatori abbandona la Microsoft perché considera la società di Bill Gates una sorta di sofisticato regime schiavistico.

Né è possibile, come fanno alcuni degli studiosi meno banali del World Wide Web (Pekka Himanen e Manuel Castells), parlare di un’etica hacker del capitalismo senza fare i conti con il fatto che è proprio l’etica hacker a costituire il background culturale della critica all’uso capitalistico della rete.

Dal 1969, anno in cui i primi computer sono stati collegati in rete, molti bit hanno circolato su Internet e il lavoro nel web rimane un puzzle di cui sono noti solo alcuni tasselli. E quando la crisi economica si è dispiegata, quel puzzle si è maggiormente complicato, mettendo in discussione ciò che in quarant’anni di esistenza si era compreso. La scommessa da fare è comprendere come il puzzle si è scomposto, perché se si vuole capire il futuro bisogna propria partire non solo dalla concentrazione della proprietà o dalle strategie imprenditoriali di questa o quella multinazionale high-tech, bensì da quella locomotiva che tutto trascina che è appunto il lavoro in rete.

Il GooglePlex sorto a poche miglia da Mountain View viene sistematicamente descritto come un campus. Al suo interno c’è la mensa che dispensa di tutto, compresi cibi veganiani o biologici, una grande biblioteca aperta 24 ore su 24, palestre, campi da tennis, di football, piscine, mentre per i pargoli dei dipendenti c’è anche un efficiente e antiautoritario asilo.

Ma ciò che colpisce i visitatori è il clima informale tra manager e semplici lavoratori. E, ciliegina sulla torta, la regola interna che permette a ogni programmatore o analista di sistema di usare parte del tempo di lavoro per coltivare progetti personali. È la cosiddetta regola del «venti per cento» che per Google ha rappresentato un filone aureo per quanto riguarda l’innovazione. La leggenda narra che il servizio GoogleNews, la posta elettronica e altri prodotti distribuiti gratuitamente dalla società di Mountain View siano stati sviluppati all’interno della regola del «venti per cento».

E altrettanto leggendario il fatto che i fondatori Sergej Brin e Larry Page invitino i propri dipendenti a partecipare alla festa chiamata del Burning Man, dove artisti, hacker, studenti universitari, anarchici e discendente dei freakkettoni si riuniscono a Black Rock nel Nevada per dare vita al dionisiaco happening in cui tutto è consentito fino a quando viene bruciato un uomo di paglia, cerimonia rituale per indicare l’armonia cosmica o la riconciliazione degli umani con la natura.

Al di là delle leggende, è un dato di fatto che Google è una delle imprese che più di altre ha fatto propria la cosiddetta etica hacker, cioè quell’invito alla condivisione del sapere e all’egemonia del merito rispetto a altri criteri per definire la carriera come stella polare della propria organizzazione del lavoro.

E non è un caso che i lavoratori di Google siano spesso personaggi di rilievo nelle liste di discussione sulla produzione di software open source, come d’altronde «aperti» siano gran parte dei programmi sviluppati a Mountain View, eccetto PageRan utilizzo è gratuito per la società simbolo di Internet in questo inizio millennio.

Tutto ciò testimonia che Google è davvero una società «anomala », quasi appunto un campus dove massima è la libertà nel lavoro. Un’anomalia tuttavia po ssibile perché i dipendenti sono pochi – alcune migliaia in tutto il mondo – e perché è riuscita a trovare il modo di fare ingenti profitti – la pubblicità degli inserzionisti – con una «infrastruttura» tecnologica e di software abbastanza snella che relega la produzione di software sempre nel campo della «ricerca e sviluppo».

Google è davvero una società innovativa e che è organizzata più che come un campus come
un laboratorio di ricerca, dove le gerarchie devono essere ridotte al minimo per lasciare il massimo di autonomia ai lavoratori, che devono sentirsi «liberi» di esprimere al massimo la loro creatività.

La domanda a cui ancora non c’è risposta è se il modello di Google possa diventare la norma. I dubbi sono leciti, come è lecito il sospetto che tale organizzazione possa essere mantenuta qualora la concorrenza di altre «imprese totali» diventi una realtà.


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

Tecnologie e Culture Digitali: Apocalypse Science
Diamoci da fare: balliamo tutte le notti, cambiamo partner subito e ripetutamente, compriamo quello che ci gira e diamo fondo al portafogli. La nostra specie sta per estinguersi. Non ci resta molto. Altro che il 2012 dei Maya e panzane simili.


Questa volta a dirlo sono gli scienziati. Gli scien-zia-ti. E quando si legge una profezia firmata “Scienziato” può diventare difficile farci dell’ironia. Questi non fanno appello agli astri e a divinità che nessuno ha mai visto: parlano di fisica e di ecologia e usano grafici e numeri. Noi possiamo solo notare che l’unico commento possibile è Who knows? e poi suddividere la categoria in due: i pessimisti catastrofisti lavedoneristi, e tutti gli altri.Tra i primi, si segnala un’ultima uscita tutta italiana dalla casa editrice il Mulino, che propone una visione raffinata della faccenda.


È contenuta in Il prezzo del linguaggio. Evoluzione ed estinzione nelle scienze cognitive, di Antonino Pennisi (preside di Scienze della Formazione all’università di Messina) e Alessandra Falzone (psicobiologa del linguaggio nello stesso ateneo). Una visione raffinata, dicevamo, che punta il dito sul linguaggio. Sì, il linguaggio. Non ci si fa un B-Movie hollywoodiano, con una proposta catastrofista così poco spettacolare.


Ma aspettate di sentire la spiegazione: la specie umana è una specie ecologicamente anomala per via del fatto che parla, cosa che permette (o obbliga a usare) il pensiero astratto e tutto quel che segue (dalla tecnologia alla socialità, per dire). “Anomalia ecologica e diversità mentale sono due facce della stessa medaglia”, e la diversità mentale dirige un’evoluzione culturale che si intreccia a quella biologica, però poi la soverchia e finirà per sopraffarla.


Tradendoci. E portandoci all’estinzione. Perché avere il linguaggio e tutto il resto significa poter abitare in tutte le nicchie ecologiche senza che debba intervenire l’evoluzione naturale. Ma poi aver colonizzato tutte le nicchie.

del pianeta si rivelerà (e si sta già rivelando) un disastro per la specie umana e la premessa per la sua estinzione.

L’ipotesi di Pennisi e Falzone è provocatoria e ha una conclusione desolante (“abbandonarsi all’eutanasia naturale è forse una miglior fine”), ma contiene una verità biologica incontestabile. Perché dovremmo essere diversi dalle altre specie? È successo ai dinosauri e a tanti altri, perché non dovrebbe accadere anche a noi?


Tanto più che noi umani abbiamo l’insana tendenza a sconquassare gli habitat nostri e degli altri, con una ammirevole e puntuale precisione. Disboschiamo e prosciughiamo, facciamo guerre durante le quali distruggiamo parti del globo e tutto quello che ci vive sopra, ci riproduciamo senza freni e pretendiamo di non morire mai, scarichiamo i nostri rifiuti in aria e in acqua oppure li seppelliamo sotto terra, fino a modificare la composizione di quello che respiriamo e la sua temperatura. Per questo, tra gli scienziati più pessimisti, le ipotesi che vanno per la maggiore sono riferite all’esaurimento delle risorse. Sovrappopolazione e riscaldamento globale, insomma. Anche senza tirare in ballo il linguaggio e la mente.


Frank Fenner, per esempio, di mestiere faceva il microbiologo e studiava il vaiolo. Adesso ha 95 anni e a noi piace pensare che le sue esternazioni siano dovute al pessimismo della terza età. Quest’estate ha dichiarato a un giornale australiano che secondo lui abbiamo, al massimo, ancora un secolo di vita. Cento anni così delineati: prima soffriremo per le conseguenze dei cambiamenti climatici e poi la situazione precipiterà per l’esaurimento delle risorse, facendoci fare la fine degli abitanti dell’isola di Pasqua, all’improvviso. Siamo noi a modificare il pianeta, dice Fenner riferendosi all’Antropocene di Paul Crutzen (l’era geologica nella quale è l’uomo il responsabile dei maggiori cambiamenti), e ne combiniamo più di un meteorite o di un’era glaciale. Solo che siamo anche tra quelli che ne subiscono le conseguenze ed è un po’ miope non rendersene conto.


Se il fantasma della catastrofe ecologica non vi sembra tanto originale, possiamo proseguire con gli umanisti. Come Nicholas Boyle, storico dell’Università di Cambridge e pezzo grosso della British Academy, che ha descritto la sua apocalisse in 2014 – Come sopravvivere alla prossima crisi globale, libro in uscita in inglese questo autunno. In questo caso l’ipotesi, ahinoi, lega i destini di tutti a quelli degli Stati Uniti, che con la loro politica estera possono condannarci a un declino senza ritorno (o anche portarci verso una nuova arcadia mondiale, ma qui stiamo parlando di apocalissi e non vorremmo uscire fuori tema), anzi: alla Crisi terminale, definitiva, che segnerà la scomparsa dell’umanità. Stiamo andando verso una catastrofe economica globale, dice Boyle, e c’è bisogno che tutti i paesi, tutti, si rendano conto di non essere autosufficienti e si rassegnino alla costruzione di un sistema di governo mondiale.


La ricetta comprenderà la tassazione delle banche e delle transazioni sui mercati valutari, il cambiamento delle relazioni internazionali tra Stati, e soprattutto il prevalere del modello imperiale come sistema di costruzione della collettività. E perché 2014? Perché un po’ di cabala c’è anche qui e Boyle nota che i destini di ogni secolo nella storia moderna si sono giocati proprio nella seconda decade (cioè tra l’anno 10 e il 19) e in particolare intorno al 14-15 (Congresso di Vienna e Prima guerra mondiale, per dire). Quindi veloci a metter su l’Impero, ragazzi.


Tra l’altro, tra i catastrofisti l’idea di dover abbandonare l’obsoleta democrazia a favore di un centralismo globale unico e dispotico non è una trovata di Boyle. In fondo, riflettono alcuni, stiamo dimostrando di non essere in grado di metterci d’accordo sulle misure per contenere il dissesto ambientale nemmeno di fronte alle manifestazioni più gravi dell’emergenza. E allora ci vuole un governo di polso, come in uno stato di guerra. Lo dice anche James Lovelock, lo scienziato inglese guru dell’ambientalismo anni settanta, quello che inventò la teoria di Gaia (la Terra come un grande organismo vivente), e lo dice in un libro di pochi anni fa uscito a ridosso del fallimento del vertice di Copenhagen: La vendetta di Gaia. Era il 2006 e Lovelock intanto scriveva un paio di articoletti per dire che miliardi di persone, più o meno l’80% dell’umanità, moriranno entro il 2100 a causa delle conseguenze del riscaldamento climatico. Di abitabile, spiegava, ci resterà solo qualche pezzo di Antartide, mentre il resto diventerà deserto, o quasi.


Se proprio, arrivati fin qui, rispondete ancora esagerato… e non vi siete ancora convinti a godere al massimo di questi ultimi mesi di vita della specie (o, al contrario, a vedere sotto un occhio più severo e preoccupato i problemi che abbiamo creato), sappiate che persino il più ottimista degli ottimisti ha cambiato idea. Uno come Bjørn Lomborg, quello che ai problemi ecologici del pianeta non ci credeva per niente e si è costruito una carriera recitando la parte dell’«ambientalista scettico». Nel suo nuovo libro Smart solution to climate change, anche Lomborg riconosce che il riscaldamento globale c’è ed è pure preoccupante. Tanto che, beata epifania, ammette la necessità di investire in fretta un po’ di risorse nella ricerca di sistemi per guarire il pianeta.


Nel suo caso, si tratta comunque di sistemi ad altissima tecnologia, comprese quelle cose un po’ futuribili tipo lo sbiancamento delle nuvole per riflettere i raggi solari. Certo è che quando anche uno come lui, che sospirava davvero esagerati… a ogni discorso sul riscaldamento globale, comincia a pensarla così, viene il sospetto che le file dei pessimisti catastrofisti lavedoneristi siano sempre più nutrite. E che forse valga la pena ascoltarli, questi scienziati. Anche se a volte parlano come un calendario Maya e non concludono le profezie con un invito a spassarsela alla grande finché si può, in attesa dell’Apocalisse.

Articolo pubblicato originariamente su il manifesto / Alias dell’11 settembre 2010


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 14, 2010

Verso la realizzazione di reti d'informazione quantistiche
Un'impurità del diamante costituita da un solo atomo di azoto, se opportunamente stimolata mediante impulsi laser, emette singoli fotoni entangled col proprio stato di spin.
Un altro piccolo ma importante passo verso la realizzazione del computer quantistico Harvard è stato compiuto grazie a uno studio di un gruppo di fisici dell’Università di Harvard che ha ottenuto per la prima volta un entanglement quantistico tra fotoni e un atomo in un materiale a stato solido.

L’entanglement è un fenomeno peculiare della fisica quantistica secondo il quale due particelle opportunamente preparate e poi separate possono comunicare l’una all’altra il proprio stato quantistico in modo istantaneo a distanze arbitrarie.

A lungo previsto per via teorica e dimostrato sperimentalmente solo in anni recenti, finora era stato dimostrato solo utilizzando singoli fotoni o ioni atomici.

Il qubit d’altra parte è un bit quantistico, ovvero un supporto di memoria basato su un singolo atomo o una molecola, analogo del bit elettronico. La differenza, in termini di teoria dell’informazione, è che mentre il bit elettronico può assumere solo due stati (0 o 1, acceso o spento) quello quantistico può trovarsi in numerosi stati intermedi, espandendo enormemente le possibilità di calcolo.

“Sulla lunga strada verso la realizzazione del calcolo quantistico e della comunicazione quantistica, una delle questioni fondamentali è come si possano connettere i qubit separati da una grande distanza”, ha commentato Mikhail D. Lukin, professore di fisica della Harvard University e coautore dello studio apparso su Nature. “La dimostrazione dell’entanglement tra un materiale a stato solido e fotoni è un importante progresso verso il collegamento tra qubit”.

Il risultato è stato ottenuto sulla base di precedenti studi dello stesso gruppo di ricerca di Lukin sulla possibilità di utilizzare impurità del diamante, anche costituite da singoli atomi, come qubit. Le impurità possono infatti essere controllate focalizzando luce laser su difetti presenti in un cristallo di diamante in cui un atomo di azoto sostituisce un atomo di carbonio e il sistema mostra un numero di gradi di libertà adatto a costituire un’eccellente memoria quantistica.

In quest’ultimo studio, Lukin e colleghi hanno dimostrato che quando vengono eccitate da una lunga sequenza di impulsi nelle microonde attentamente calibrate, queste impurità possono emettere fotoni uno alla volta, e che tali fotoni sono “entangled” con la memoria quantistica. Proprio il flusso di singoli fotoni potrebbe, secondo gli autori, essere utilizzato per la trasmissione sicura d’informazioni.

"Poiché i fotoni sono i più veloci vettori d’informazione e la memoria basata sugli spin degli atomi può immagazzinare informazione quantistica per un periodo di tempo relativamente lungo, l’entanglement tra fotoni e stati di spin è l’ideale per la realizzazione di reti quantistiche”, ha concluso Lukin.
fonte: Le Scienze



Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre aggiornato sui nuovi contenuti del blog:

settembre 08, 2010

L'atmosfera primordiale della Terra? Simile a quella di Titano
Il modello preso a prestito da quello elaborato per il satellite di Saturno prevede la presenza di particelle di aerosol costituite da lunghe e irregolari catene di particelle più piccole, e la presenza di metano è la chiave per rendere plausibile tale modello.

La fitta nebbia di sostanze organiche gassose che circondava la Terra primordiale alcuni miliardi di anni fa potrebbe essere stata simile a quella che ora si osserva su Titano, la luna più grande di Saturno e avrebbe potuto proteggere la vita sul pianeta primordiale dagli effetti deleteri della radiazione ultravioletta.

È questa la conclusione di un nuovo studio dei ricercatori dell’Università del Colorado a Boulder, secondo cui l’atmosfera primordiale dei pianeta era costituita da aerosol di metano e composti dell’azoto che potevano subire varie reazioni chimiche in virtù dell’interazione con la radiazione solare: non solo la cortina avrebbe schermato la superficie dai raggi UV, quindi, ma avrebbe permesso la formazione dell’ammoniaca e avrebbe determinato un riscaldamento da gas serra, impedendo al pianeta di raggiungere temperature molto basse.

“Prima di questo studio, il modello più accreditato prevedeva un'atmosfera primordiale costituita da azoto con una minima percentuale di biossido di carbonio, metano, idrogeno e vapor d'acqua”, ha spiegato Eric Wolf, coautore dell'articolo apparso sulla rivista Science. "La temperatura tuttavia non poteva essere più elevata solo per la presenza del biossido di carbonio, a causa dei suoi bassi livelli: avrebbero dovuto essere implicati anche altri gas serra. La spiegazione più logica è che vi fosse anche del metano, immesso in atmosfeta dalle forme di vita primordiali.”

Secondo i calcoli, durante il periodo Archeano, tra 3,8 e 2,5 miliardi di anni fa, la radiazione del Sole era del 20-30 per cento più debole di quella attuale. Eppure le evidenze geologiche e biologiche indicano che la temperatura della superficie era più alta di quella attuale.


Per spiegare l'incongruenza, Wolf e il collega Brian Toon hanno utilizzato un modello climatologico del National Center for Atmospheric Research che consente di spiegare la spessa atmosfera di Titano, secondo satellite per grandezza dell'intero sistema solare e più grande luna di Saturno. In particolare, tale modello prevede la presenza di particelle di aerosol costituite da lunghe e irregolari catene di particelle più piccole.

"Il metano è la chiave per rendere plausibile questo modello: l'unico particolare che mancava era un'ipotesi su come si sia formato”, ha concluso Toon. “Se gli organismi terrestri primordiali non erano in grado di produrre metano, esso potrebbe essere stato generato dal rilascio dei gas durante le eruzioni vulcaniche, o prima o dopo l'origine della vita.”

Titano è l'unico satellite naturale del sistema solare a possedere un'atmosfera sviluppata; la sua scoperta risale al 1944, quando Gerard Kuiper, facendo uso di tecniche spettroscopiche, stimò la pressione parziale del metano in 10 kPa.

In seguito, le osservazioni condotte da distanza ravvicinata nell'ambito del programma Voyager hanno permesso di determinare che l'atmosfera titaniana è più densa di quella terrestre, e le sue imponenti formazioni nuvolose rendono impossibile l'osservazione diretta della superficie. La foschia visibile nell'immagine a fianco contribuisce a sostenere un effetto serra al contrario, che, aumentando l'albedo del satellite e riflettendo la luce incidente nello spazio, ne diminuisce la temperatura superficiale. Sulla superficie la sonda Huygens ha rilevato una temperatura di -179 °C e una umidità del 45%.


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempreaggiornato sui nuovi contenuti del blog:

settembre 07, 2010

Nessuna notizia e' una buona notizia. Allora usiamo Perl per filtrare.

Nessuna notizia e' una buona notizia, recita un famoso detto inglese.


Spesso per noi che dipendiamo dalle News per avere la nostra dose quotidiana di informazioni è difficile anche renderci conto che non c'è proprio niente di interessante da leggere!


La quantità di notizie che ci arrivano tramite Internet è spesso così elevata da scoraggiare anche il più inpavido lettore.
Anche i filtri che i News readers ci mettono a disposizione sono spesso troppo grossolani e corriamo il rischio di perdere qualche informazione interessante o di averne così tante da non riuscire a trovare quella giusta per noi.


La soluzione, da bravi Linux-men, è quella di fabbricarci i nostri filtri su misura, interfacciandoci direttamente alle News, tramite il NNTP (Net News Transfer Protocol), il protocollo utilizzato per il trasferimento degli articoli tra news servers.


In questo articolo userò il linguaggio Perl e prenderò in esame un modulo aggiuntivo, che mette a disposizione del programmatore una classe che rende estremamente facile interfacciarsi al protocollo NNTP.


Supponendo che sulla vostra macchina sia installato il Perl, in una versione abbastanza recente (l'ultima versione al momento della scrittura di questo articolo è la 5.003), il componente che dovrete procurarvi è libnet-1.00.tar.gz .


L'installazione di questo modulo è molto semplice, come del resto quella di tutti i moduli aggiuntivi del Perl: basta scompattare il file, entrare nella directory creata e dare i seguenti comandi:

$ perl Makefile.PL
$ make
$ su -c 'make install'

A questo punto i moduli aggiuntivi e i relativi manuali saranno installati nelle opportune directory (che il Perl desume dai dati registrati nella sua installazione corrente).
Per leggere la pagina di manuale riguardante il modulo di interfaccia al protocollo NNTP basta dare il comando:

$ man Net::NNTP

Ovviamente dovrete avere nel vostro $MANPATH o nel vostro /etc/manpath.config anche la directory dei manuali del Perl, che di solito è /usr/lib/perl5/man.

PRIMI PASSI: LA LISTA DEI NEWSGROUPS.

Chiunque abbia scritto un programma che si interfacci ad un protocollo di rete ha sicuramente presente la quantità di istruzioni necessarie per l'apertura di un socket su di una porta TCP/IP.
Tutto questo lavoro è ora incapsulato in una singola chiamata, esattamente nella chiamata usata per l'inizializzazione di un oggetto Net::NNTP.

Praticamente basta scrivere:

$c = new Net::NNTP('mio.news.server');<br />

per aprire la connessione con la macchina specificata dalla stringa 'mio.news.server'.

Il primo programmino che possiamo scrivere ci può servire per leggere la lista dei newsgroups disponibili sul nostro News Server:

#!/usr/bin/perl<br /><br />use Net::NNTP;<br /><br />$ARGV[0] = 'localhost' if !defined $ARGV[0];<br />$c = new Net::NNTP($ARGV[0]);<br />$lista = $c->list();<br />foreach $newsgroup (keys %$lista){<br /> print "$newsgroup\n";<br />}<br />

Esaminiamolo riga per riga. La prima riga:

use Net::NNTP;

richiede al Perl di caricare il modulo che utilizzaremo. La riga:

$ARGV[0] = 'localhost' if !defined $ARGV[0];

Specifica un default ragionevole: se non sono presenti argomenti sulla riga di comando (if !defined $ARGV[0]), allora assegna al primo elemento dell'array in cui il Perl immagazzina la riga di comando, il nome del server di default, in questo caso 'localhost': il nostro server locale.
La riga:

$c = new Net::NNTP($ARGV[0]);

crea esplicitamente un oggetto della classe Net::NNTP. Dietro questa riga, come abbiamo detto, si nasconde tutto il meccanismo di connessione tramite socket alla porta NNTP del TCP/IP.
A questo punto non ci resta che inoltrare la richiesta della lista dei newsgroups attivi sul server e stampare il risultato.
Tutto il colloquio tra il Server e il nostro client è sintetizzato nella riga:

$lista = print $c->list();

che attiva la funzione membro 'list' dell'oggetto $c della classe Net::NNTP.
La chiamata a questo metodo ritorna una reference (puntatore per i fans del C) ad un array associativo, le cui chiavi sono i nomi dei newsgroups presenti.
Le righe seguenti:

foreach $newsgroup (keys %$lista){<br /> print "$newsgroup\n";<br />}<br />

stampano i nomi dei newsgroups.
Il costrutto %$lista serve a dereferenziare l'intero l'array associativo puntato dalla variabile $lista.

Se chiamiamo questo programma 'lista' e lo rendiamo eseguibile (chmod u+x lista), possiamo lanciarlo con il comando:

$ lista<br />

e otterremo su standard output l'elenco dei newsgroup attivi sulla nostra macchina.

QUANTI ARTICOLI CI SONO NEL NEWSGROUP

Fin qui niente di particolarmente interessante, ma andiamo avanti. Scriviamo ora un programmino (si parla sempre di programmini: questo modulo ci consente di scrivere programmi complessi in pochissime righe!) per rilevare il numero del primo e dell'ultimo articolo presente in un newsgroup sul server specificato:

#!/usr/bin/perl<br /><br />use Net::NNTP;<br /><br />if(!defined $ARGV[0]){<br /> print "Uso: $0 nome_gruppo [server]\n";<br /> exit;<br />}<br />$ARGV[1] = 'localhost' if !defined $ARGV[1];<br />$c = new Net::NNTP($ARGV[1]);<br />print "(", join(",", $c->group($ARGV[0])), ")\n";<br />

Esaminiamo anche questo programma riga per riga. Le prime righe sono simili a quello del programma 'lista', poi le quattro righe:

if(!defined $ARGV[0]){<br /> print "Uso: $0 nome_gruppo [server]\n";<br /> exit;<br />}<br />

verificano che al programma sia stato passato almeno un parametro sulla riga di comando: il nome del gruppo che vogliamo esaminare. In caso contrario il programma esce dopo aver stampato la sintassi con cui dovrebbe essere richiamato.
Le due righe successive:

$ARGV[1] = 'localhost' if !defined $ARGV[1];<br />$c = new Net::NNTP($ARGV[1]);<br />

come abbiamo già visto definiscono un default per il nome del server da contattare e stabiliscono la connessione NNTP.


Vi sarete certamente resi conto che se l'utente per errore passa al programma il nome dell'host e dimentica il nome del newsgroup è probabile che si verifichi un errore, ma passatemi lo scarso controllo sui parametri, del resto questo è solo un programmino dimostrativo!


A questo punto, in un solo colpo, abbiamo la risposta:

print "(", join(",", $c->group($ARGV[0])), ")\n";<br />

La funzione membro 'group' ritorna una lista di quattro elementi: il numero di articoli presenti nel newsgroup, il numero del primo e dell'ultimo articolo presenti e il nome nel newsgroup specificato. La funzione join lega gli elementi della lista in una unica stringa, separandoli con delle virgole.
Reso eseguibile questo programma e lanciato con il comando:

$ estremi_gruppo it.comp.linux<br />

ottengo dal mio server una risposta del tipo:

(217,3511,3727,it.comp.linux)<br />

GLI HEADERS DEGLI ARTICOLI.

Il passo successivo nella nostra esplorazione dei newsgroups è rappresentato da questo programma:

#!/usr/bin/perl<br /><br />use Net::NNTP;<br />use Getopt::Std;<br />getopt('pu');<br /><br />if(!defined $ARGV[0]){<br /> print "Uso: $0 [-pprimo] [-uultimo] nome_gruppo [server]\n";<br /> exit;<br />}<br />$ARGV[1] = 'localhost' if !defined $ARGV[1];<br />($c = new Net::NNTP($ARGV[1])) || die $!; # die on timeout<br /><br />(($num_arts, $primo, $ultimo, $nome) = ($c->group($ARGV[0]))) || die $!;<br />$primo = $opt_p if defined $opt_p;<br />$ultimo = $opt_u if defined $opt_u;<br />$heads = $c->xhdr("Subject", $primo, $ultimo);<br /><br />foreach $head (keys %$heads){<br /> print "$head $heads->{$head}\n";<br />}<br />

che serve per ottenere un elenco dei soli soggetti degli articoli presenti in un newsgroup specificato. Esaminiamolo.
La prima righa:

use Net::NNTP;<br />

come al solito serve per caricare il modulo che useremo. Le righe successive:

use Getopt::Std;<br />getopt('pu');<br /><br />if(!defined $ARGV[0]){<br /> print "Uso: $0 [-pprimo] [-uultimo] nome_gruppo [server]\n";<br /> exit;<br />}<br />

servono per caricare e usare una libreria compresa nella distribuzione standard del Perl, che serve per esaminare la riga di comando alla ricerca di opzioni.


Le opzioni che cerchiamo sono '-p' e '-u', entrambe seguite da un valore numerico, il cui scopo è definire il numero del primo e dell'ultimo articolo da esaminare.


Se la linea di comando è vuota, usciamo dal programma, proponendo un messaggio chiarificatore sull'uso.

La riga successiva:

$ARGV[1] = 'localhost' if !defined $ARGV[1]; <br />

definisce un default ragionevole per il nome del server da contattare.
La riga:

($c = new Net::NNTP($ARGV[1])) || die $!; # die on timeout<br />

avvia la connessione con il server, questa volta controllando anche il risultato dell'operazione e uscendo in caso di errore o timeout.
Le righe successive:

(($num_arts, $primo, $ultimo, $nome) = ($c->group($ARGV[0]))) || die $!;<br />$primo = $opt_p if defined $opt_p;<br />$ultimo = $opt_u if defined $opt_u;<br />

leggono il numero del primo e dell'ultimo articolo presenti nel newsgroup specificato, per utilizzarli come defaults, in caso l'utente non abbia specificato il numero del primo e dell'ultimo articolo da esaminare.
Alla fine le righe:

$heads = $c->xhdr("Subject", $primo, $ultimo);<br /><br />foreach $head (keys %$heads){<br /> print "$head $heads->{$head}\n";<br />}<br />

stampano tutti i soggetti degli articoli specificati.
La funzione membro xdhr() torna una reference ad un array associativo, le cui chiavi sono i numeri degli articoli e i cui valori sono l'header richiesto per l'articolo.
Il costrutto $heads->{$head} serve per dereferenziare un elemento dell'array a partire dal suo reference.

Reso eseguibile questo programma e lanciatolo con il comando:

$ headers_articoli -p34000 -u34010 comp.databases.oracle<br />

ottengo dal mio server la risposta:

34000 Cursor: does the job but doesn't come back<br />34001 Re: Database writing architecture<br />34002 Help w/ D-2000 connection<br />34003 Re: Cursor: does the job but doesn't come back<br />34004 Re: Oracle 7.3 features<br />34005 Applications Programmers-Twin Cities-RTP NC<br />34006 Re: Java-Oracle are there any classes available?<br />34007 Re: PO7 upgrade to Win95.<br />34008 US-IL-ORACLE/ORACLE FINANCIALS DEVELOPERS & DBA'S<br />34009 Excellent Opportunities-RTP NCWash DCMinneapolis<br />34010 BIND variables?<br />

UNA RICERCA!

Ma tutto ciò può essere fatto da un qualsiasi news reader!
Le cose cominciano a diventare utili se modifichiamo una sola riga del nostro programma in modo che stampi il numero di tutti gli articoli il cui soggetto contiene una certa stringa:

#!/usr/bin/perl<br /><br />use Getopt::Std;<br />getopt('pu');<br />use Net::NNTP;<br /><br />if(!defined $ARGV[1]){<br /> print "Uso: $0 [-pprimo] [-uultimo] nome_gruppo stringa [server]\n";<br /> exit;<br />}<br />$ARGV[2] = 'localhost' if !defined $ARGV[2];<br />($c = new Net::NNTP($ARGV[2])) || die $!; # die on timeout<br /><br />(($num_arts, $primo, $ultimo, $nome) = ($c->group($ARGV[0]))) || die $!;<br />$primo = $opt_p if defined $opt_p;<br />$ultimo = $opt_u if defined $opt_u;<br />$heads = $c->xpat("Subject", $ARGV[1], $primo, $ultimo);<br /><br />foreach $head (keys %$heads){<br /> print "$head $heads->{$head}\n";<br />}<br />

Il programma cerca_articoli ora, lanciato così:

$ cerca_articoli comp.lang.perl.misc '*UNIX*'<br />

genera sulla mia macchina questo output:

18263 Simple UNIX program scheduling...<br />18264 UNIX Symlinks and -i.bak<br />18266 Re: Simple UNIX program scheduling...<br />18273 Re: Simple UNIX program scheduling...<br />

Ci sono due cose da notare: la prima è che il pattern viene interpretato dal server NNTP, quindi si usano dei metacaratteri diversi da quelli delle regular expression del Perl, più simili ai metacaratteri della shell.


La seconda cosa è che il pattern deve matchare tutta la stringa cercata: nel caso si compia una ricerca sul "Subject" dell'articolo, il pattern deve corrispondere all'intero soggetto, non ad una parte di esso.
Questo spiega gli asterischi prima e dopo la stringa da cercare.


Ovviamente usando lo stesso metodo posso cercare una stringa all'interno di qualsiasi altra riga dell'header, specificandone il nome al posto del "Subject", così, per cercare gli articoli scritti dal signor Rossi:

$heads = $c->xpat("From", "*Rossi*", $primo, $ultimo);<br />

A questo punto abbiamo già il modo di selezionare un po' gli articoli prima della lettura, ma vogliamo raffinare ancora il nostro programmino. Facciamo in modo che la nostra creatura possa leggere anche il testo dell'articolo e che possa "decidere" cosa ci interessa.


Qualche altra riga di codice e otteniamo:

#!/usr/bin/perl<br /><br />use Getopt::Std;<br />getopt('pu');<br />use Net::NNTP;<br /><br />if(!defined $ARGV[1]){<br /> print "Uso: $0 [-pprimo] [-uultimo] nome_gruppo stringa_header stringa_body [server]\n";<br /> exit;<br />}<br />$ARGV[3] = 'localhost' if !defined $ARGV[3];<br />($c = new Net::NNTP($ARGV[3])) || die $!; # die on timeout<br /><br />(($num_arts, $primo, $ultimo, $nome) = ($c->group($ARGV[0]))) || die $!;<br />$primo = $opt_p if defined $opt_p;<br />$ultimo = $opt_u if defined $opt_u;<br />$heads = $c->xpat("Subject", $ARGV[1], $primo, $ultimo);<br /><br />foreach $numero (keys %$heads){<br /> $art = $c->article($numero);<br /> $testo = join "", @$art;<br /> if($testo =~ /$ARGV[2]/o){<br />  print "$testo\n\n";<br /> }<br />}<br />

Qualche commento: il numero dei parametri richiesti dal programma è cresciuto: oltre alla stringa da cercare nell'header ora ci aspettiamo dall'utente anche una stringa da cercare all'interno del testo dell'articolo.


Dopo la chiamata alla funzione membro xpath() scorriamo tutte le righe dell'array, leggendo il testo dell'articolo mediante la funzione membro article().


Questa funzione torna una reference ad un array che contiene tutte le righe dell'articolo (variabile $art).
Uniamo tutte le righe dell'array con una join per formare un'unica variabile, all'interno della quale cercheremo poi il secondo testo specificato sulla riga di comando.

Invocando il programma in questo modo:

$ cerca -p18254 -u18280 comp.lang.perl.misc '*UNIX*' 'crontab'<br />

ottengo questo l'output:

Path: nanux!comune.bologna.it!sirio.cineca.it!serra.unipi.it!swidir.switch.ch!in2p3.fr!oleane!tank.news.pipex.net!pipex!news.mathworks.com!newsfeed.internetmci.com!info.ucla.edu!ihnp4.ucsd.edu!munnari.OZ.AU!mel.dit.csiro.au!carlton.acci.COM.AU!gavin<br /> From: gavin@acci.COM.AU (Gavin Cameron)<br /> Newsgroups: comp.lang.perl.misc,comp.unix.programmer<br /> Subject: Re: Simple UNIX program scheduling...<br /> Date: 11 Apr 96 00:35:28 GMT<br /> Organization: Australian Computing and Communications Institute<br /> Lines: 23<br /> Message-ID: <gavin.829182928@carlton.acci.COM.AU><br /> References: <4khh0i$fv2@solaris.cc.vt.edu><br /> NNTP-Posting-Host: tawonga.acci.com.au<br /> X-Newsreader: NN version 6.5.0 #6 (NOV)<br /> Xref: nanux comp.lang.perl.misc:18273 comp.unix.programmer:5376<br /> <br /> Use crontab, see the crontab(5) man page for all the details you'll ever<br /> need to know.<br /> <br /> Gavin<br /> <br /> <br /> sms@magenta.com (SMS/Christian Fowler) writes:<br /> <br /> >I have a simple program, written with PERL, I want to schedule execution<br /> >for. What is the simplest way to do this? Should I have the program <br /> >reschedule itself, every time it runs?<br /> <br /> >I simply want it to run, say every monday morning at 7 am.<br /> <br /> >Thanks for any info...<br /> <br /> <br /> >--<br /> >  =-=<br /> >=-=+=-=  Sound Machine Sound - The Music Makers Net Directory<br /> >=-=%=-=     Christian Fowler - sHAPE FACTOR MOMENt<br /> >=-=+=-=    sms@magenta.com  http://magenta.com/~sms/<br /> >  =-=<br />

Purtroppo questa volta le stringhe che esprimono i pattern da cercare seguono due standard diversi: la prima stringa viene interpretata dal server NNTP e segue uno standard pseudo-shell, mentre la seconda stringa, interpretata dal Perl può essere una regular expression.


Spiacente per la confusione, ma a servizi diversi corrispondono formalismi diversi... fino a quando qualcuno non scriverà un server NNTP in Perl (oops!).


È comunque un buon risultato per un programma di venticinque righe, comprese righe vuote e commenti! C'è da dire che il programmino non ha molte pretese, che può essere migliorato, ma è sufficiente a dimostrare cosa si può fare con questo modulo e spero che possa fornirvi degli spunti per creare qualcosa di più complesso... interfacce News-Web? risponditori intelligenti?


Si potrebbe usare il modulo che si interfaccia al protocollo SMTP per spedire mails di biasimo automatiche a chi scrive sciocchezze... ma questa è un'altra storia e va raccontata un'altra volta.

<span style="font-style: italic;"><br /></span>


Se ti è piaciuto l'articolo , iscriviti al feed cliccando sull'immagine sottostante per tenerti sempre

aggiornato sui nuovi contenuti del blog:

Random Posts