giovedì 23 aprile 2009

Repubblica.it: L’ingorgo internet

Oggi 22 Aprile Repubblica dedica un articolo nella rubrica R2 ad una polemica che prende il via niente po’ po’di meno che dall’università di Stanford, più precisamente da un docente, John Markoff, il quale insieme al gruppo di lavoro del Clean Slate Program lo scorso febbraio pubblica il saggio-provocazione: Abbiamo bisogno di una nuova internet?
Che sia necessario innovare è un'idea che trova d'accordo anche Tim Berners-Lee, che ci fa sapere da Madrid: "Il web del futuro, ovvero il web 3.0, sarà senza barriere, più accessibile per tutti e da ogni tipo di dispositivo, dal telefono all'ebook"….
http://www.repubblica.it/2009/01/sezioni/tecnologia/internet-numeri/ingorgo/ingorgo.html?ref=hpspr1

Sulla copia cartacea vi erano inoltre dati su:
Utilizzo di internet nel mondo: http://www.internetworldstats.com/stats.htm
Penetrazione di internet in Europa: http://www.internetworldstats.com/stats4.htm
L’Italia online, relativo al rapporto annuale(2007) su comunicazione e media: http://www.censis.it/

Giusy Di Marsilio

13 commenti:

  1. Adele Petrella23 aprile 2009 18:29

    Tim Berners-Lee: l'inventore del Web

    Ritratto di Tim Berners-Lee, l'inventore del Web, oggi presidente del W3C, l'organismo internazionale che coordina lo sviluppo degli standard del WWW e direttore del laboratorio di Computer Science al Massachusetts Institute of Technology di Boston

    di Salvatore Romagnolo

    È il mese di settembre del 1989, Tim Berners Lee, un giovane consulente al Cern di Ginevra, classe 1955, laureatosi nel 1976 al Queen’s College dell’Università di Oxford, redige un breve rapporto, intitolato «Management dell’informazione: una proposta», nel quale presenta delle soluzioni per limitare le perdite di informazioni nel centro di ricerche. In effetti, al Cern, come in molte altre grandi organizzazioni, perdere delle informazioni è all’ordine del giorno. Un danno grave, soprattutto se si tratta di centri e laboratori di ricerca.

    L’idea di Tim è quella di creare un ambiente di comunicazione universale, decentralizzato, basato sull’ipertesto: il sistema di scrittura che consente di collegare tra di loro diversi documenti come se si trattasse di una tela, una trama di tessuto nella quale tutti gli elementi sono collegati tra di loro. Internet, creata negli Stati Uniti nel 1969, è già una realtà, ma ha un aspetto profondamente diverso da quello attuale.

    Niente immagini, niente navigazione ipertestuale, nessuna informazione a portata di click: anche i mouse non hanno ancora fatto la loro comparsa sulle scrivanie. Internet è una rete esoterica, riservata a ricercatori e informatici e serve esclusivamente a inviare e ricevere posta elettronica e a recuperare file su computer remoti. Ma, grazie all’intuizione di un giovane consulente, le cose sono destinate a cambiare e al Cern di Ginevra si sta scrivendo una pagina fondamentale della storia della Rete delle Reti.

    Nel marzo del 1991, tramite un software scritto da Tim Berners Lee, i ricercatori del Cern possono accedere alla prima pagina Web della storia: l’elenco telefonico del centro di ricerca. Nel mese di agosto, il progetto World Wide Web diventa pubblico e viene messo a disposizione tramite alcuni gruppi di discussione su Internet. Della nuova tecnologia non viene richiesto nessun brevetto, chiunque può utilizzarla senza pagare alcun diritto al Cern o al suo inventore. È la fortuna di Internet, la caratteristica che ha fatto della Rete il sistema più aperto, più facilmente implementabile nella storia dell’informatica.

    E che gli ha consentito di diffondersi rapidamente, diventando ciò che i suoi inventori desideravano: una vera Ragnatela Mondiale. A chi gli chiede perché non ha brevettato la tecnologia del Web e nemmeno il marchio, Berners Lee risponde: «Se avessi creato la Web Inc. avrei semplicemente dato vita ad un nuovo standard e la diffusione universale del WWW non si sarebbe mai verificata. Perché esista qualcosa come il Web è necessario che tutto il sistema si basi su standard aperti, pubblici».

    Oggi Tim Berners Lee – che si autodefinisce l’inventore e il protettore del Web – è presidente del W3C, un organismo internazionale che coordina lo sviluppo degli standard del WWW e dirige il laboratorio di Computer Science al Massachusetts Institute of Technology di Boston. E anche lui, come molti altri pionieri di Internet, non è diventato miliardario.

    RispondiElimina
  2. Adele Petrella23 aprile 2009 18:31

    Tim Berners-Lee: l'inventore del Web

    Ritratto di Tim Berners-Lee, l'inventore del Web, oggi presidente del W3C, l'organismo internazionale che coordina lo sviluppo degli standard del WWW e direttore del laboratorio di Computer Science al Massachusetts Institute of Technology di Boston

    di Salvatore Romagnolo

    È il mese di settembre del 1989, Tim Berners Lee, un giovane consulente al Cern di Ginevra, classe 1955, laureatosi nel 1976 al Queen’s College dell’Università di Oxford, redige un breve rapporto, intitolato «Management dell’informazione: una proposta», nel quale presenta delle soluzioni per limitare le perdite di informazioni nel centro di ricerche. In effetti, al Cern, come in molte altre grandi organizzazioni, perdere delle informazioni è all’ordine del giorno. Un danno grave, soprattutto se si tratta di centri e laboratori di ricerca.

    L’idea di Tim è quella di creare un ambiente di comunicazione universale, decentralizzato, basato sull’ipertesto: il sistema di scrittura che consente di collegare tra di loro diversi documenti come se si trattasse di una tela, una trama di tessuto nella quale tutti gli elementi sono collegati tra di loro. Internet, creata negli Stati Uniti nel 1969, è già una realtà, ma ha un aspetto profondamente diverso da quello attuale.

    Niente immagini, niente navigazione ipertestuale, nessuna informazione a portata di click: anche i mouse non hanno ancora fatto la loro comparsa sulle scrivanie. Internet è una rete esoterica, riservata a ricercatori e informatici e serve esclusivamente a inviare e ricevere posta elettronica e a recuperare file su computer remoti. Ma, grazie all’intuizione di un giovane consulente, le cose sono destinate a cambiare e al Cern di Ginevra si sta scrivendo una pagina fondamentale della storia della Rete delle Reti.

    Nel marzo del 1991, tramite un software scritto da Tim Berners Lee, i ricercatori del Cern possono accedere alla prima pagina Web della storia: l’elenco telefonico del centro di ricerca. Nel mese di agosto, il progetto World Wide Web diventa pubblico e viene messo a disposizione tramite alcuni gruppi di discussione su Internet. Della nuova tecnologia non viene richiesto nessun brevetto, chiunque può utilizzarla senza pagare alcun diritto al Cern o al suo inventore. È la fortuna di Internet, la caratteristica che ha fatto della Rete il sistema più aperto, più facilmente implementabile nella storia dell’informatica.

    E che gli ha consentito di diffondersi rapidamente, diventando ciò che i suoi inventori desideravano: una vera Ragnatela Mondiale. A chi gli chiede perché non ha brevettato la tecnologia del Web e nemmeno il marchio, Berners Lee risponde: «Se avessi creato la Web Inc. avrei semplicemente dato vita ad un nuovo standard e la diffusione universale del WWW non si sarebbe mai verificata. Perché esista qualcosa come il Web è necessario che tutto il sistema si basi su standard aperti, pubblici».

    Oggi Tim Berners Lee – che si autodefinisce l’inventore e il protettore del Web – è presidente del W3C, un organismo internazionale che coordina lo sviluppo degli standard del WWW e dirige il laboratorio di Computer Science al Massachusetts Institute of Technology di Boston. E anche lui, come molti altri pionieri di Internet, non è diventato miliardario.

    http://www.romagnolo.it/personaggi/bernerslee.htm

    RispondiElimina
  3. Internet? Una rivoluzione solo agli inizi: "Quando avremo tutti i dati del mondo accessibili online sarà un grande giorno per l'umanità"


    MADRID
    Il futuro Web 3.0 «sarà un Web 2.0 senza barriere», più accessibile per tutti e da ogni tipo di dispositivo. È la visione che Tim Berners-Lee, il padre del World Wide Web, ha illustrato nel discorso inaugurale della 18ma Conferenza mondiale del Consorzio Wwww in corso a Madrid.

    Per Sir Berners-Lee i siti «recintati», che impediscono l’accesso ai loro dati, i cosiddetti ’walled gardens’, si dovrebbero aprire: è meglio che i dati siano disponibili che chiusi, ha assicurato, rivolgendosi anche alle aziende.

    Per Lee importantissima sarà anche l’apertura verso i cellulari - attraverso i quali molte persone, soprattutto nel 3§ mondo accedono per la prima volta a Internet-. Lo scienziato ha infatti ricordato che solo il 23% della popolazione mondiale è connessa a Internet.

    Internet ha cambiato la vita di milioni e milioni di persone, ma la rivoluzione è solo all’inizio di una nuova era. «Il Web come l’ho immaginato è ancora tutto da vedere», ha detto Berners-Lee. Le percentuali di internauti sono ovviamente più alte nei paesi sviluppati, mentre solo il 5% degli africani ha accesso alla rete. Una percentuale che è comunque destinata a salire, visto che l’accesso tramite telefonia mobile non rende più indispensabile l’utilizzo di un computer.

    Berners-Lee crede inoltre che anche il modo di pensare i siti dovrebbe cambiare, per fare in modo che siano pensati per «essere una parte di qualcosa più grande». Il creatore del World Wide Web ha poi spiegato che per lui c’è bisogno di rendere la Rete «sempre più semplice, non solo più veloce ed economica», per far sì che tutti possano avervi accesso.

    Robert Cailliau, che ha disegnato la struttura del Web insieme a Berners-Lee nel 1989, ha aggiunto che la presenza sul Web di un maggior numero di persone significa anche la possibilità per tutti di consultare un numero maggiore di dati. «Quando avremo tutti i dati online sarà un grande giorno per l’umanità. Si tratta infatti di un prerequisito per risolvere molti dei problemi che gli uomini devono affrontare».

    La tecnologia Www, che semplificò il processo di ricerca su Internet, fu inventata nel 1989 e resa disponibile al grande pubblico nel 1991 con il browser Mosaic, il predecessore di Netscape.

    http://www.lastampa.it/_web/cmstp/tmplrubriche/tecnologia/grubrica.asp?ID_blog=30&ID_articolo=6087&ID_sezione=38&sezione=News

    Valeria Pezzella

    RispondiElimina
  4. Elena Camperlingo23 aprile 2009 21:12

    Si parla della furura saturazione di Internet: quali sono le previsioni? Abbiamo davvero bisogno di un Web 3.0?

    La rete è "satura"

    L'American Registry for Internet Numbers (ARIN), il registro americano che assegna gli indirizzi numerici, ha lanciato l'allarme: la data dell'esaurimento degli indirizzi legati al protocollo Ipv4 sta per avvicinarsi.
    Le combinazioni numeriche che permettono l'identificazione degli indirizzi che normalmente siamo abituati a digitare sono agli sgoccioli e potrebbero esaurirsi già nel 2010, contravvenendo alle stime precedenti, forse un po' troppo ottimiste, che indicavano il 2016 come la data di una possibile saturazione per gli indirizzi assegnati, e il 2023 la saturazione completa.
    Anticipando i tempi, secondo le statistiche dell'Arin resterebbe a nostra disposizione solo il 19% dello spazio d'indirizzamento.
    Le cause di questo tracollo sono numerose, ma pare non ci siano troppi dubbi nell'affermare che il colpo "definitivo" sia stato inflitto dall'aumento del numero di dispositivi connessi ad Internet e, soprattutto, dalle numerosi frodi alle qual il il web è ripetutamente sottoposto, tra le quali il ricorso all'assegnazione di indirizzi che si basano su dati falsi.

    La rapida evoluzione dei dispositivi always-on, fondamentali per la convergenza tra reti fisse e mobili (come ADSL e cable modem), la straordinaria proliferazione di dispositivi mobile wireless (come laptop computer, PDA e mobile phone), stanno, inoltre, mettendo ulteriore pressione al problema dell'esaurimento IP. A questo proposito non si deve sottovalutare, poi, la crescita di regioni popolose dell'Asia, come India e Cina per esempio, con le quali si supereranno più di 4 miliardi di dispositivi privati "always-on" connessi ad Internet.
    Un problema da risolvere, dunque, con urgenza.

    Tra le possibili soluzioni è stata indicata la migrazione di tutti gli indirizzi al protocollo di ultima generazione, l'Ipv6, con i suoi indirizzi a 128 bit.
    Il nuovo protocollo introduce nuovi servizi, semplifica la gestione delle reti e supporta un più elevato spazio di indirizzamento: gestione di circa 3,4x10 alla 38 indirizzi (pari a 280 milioni di miliardi di inidirzzi unici per ogni metro quadro della terra), contro i 4 miliardi dell'Ipv4.
    I sostenitori dell'IPv6 ritengono che la nuova versione del protocollo IP stia gettando le basi per il futuro sviluppo di Internet, per i più pessimisti la versione precedente continua ad essere più conveniente per gli utenti che oggettivamente potrebbero avere più reticenze a spostarsi verso un sistema non sufficientemente competitivo, almeno nella prima lunga e complessa fase di transizione.
    Non resta che stare a vedere cosa succederà.

    www.italica.rai.it/index.php?categoria=multimedia_futurama&scheda=indirizzi_web

    Si è discusso molto del Web 3.0

    All’inizio del 2006 Jeffrey Zeldman (un famoso progettista di siti web) ha scritto un articolo critico verso il Web 2.0 e le tecnologie ad esso associate come AJAX Perché ritiene che si sono esaltati troppo gli aspetti economici della rete lasciando in secondo piano le innovazioni tecniche Alla fine dell’articolo Jeffrey afferma: “Per quanto mi riguarda, sto per tagliare fuori la fase intermedia e passare direttamente al Web 3.0. Perché aspettare? ”
    Nel maggio dello stesso anno L’amministratore delegato di google, Eric Schmidt, ha indicato come elemento base che ha permesso l’esistenza del web 2.0 AJAX l’insieme di tecnologie di programmazione e scripting (JavaScript, XML, ecc.), il cui uso diffuso permette a chiunque, anche senza conoscere i linguaggi di programmazione, di gestire siti web e blog con le funzionalità avanzate dalla base dell’interattività.
    Per Schmidt le nuove tecnologie che sostituiranno Ajax saranno più facili da implementare, più veloci e gireranno dappertutto risolvendo “un sacco di problemi”. Così con il web 3.0 non saranno più necessari PC con processori potenti, grandi hard disk o sistemi operativi dotati di tantissime funzionalità, perchè le sue applicazioni “leggere” potranno girare su ogni tipo di dispositivo, lavoreranno su dati e informazioni disponibili nella nuvola semantica, useranno i tag, saranno personalizzabili con facilità.
    Le applicazioni web3.0, inoltre, sfrutteranno la “vitalità” del web, diffondendosi nei social network senza appoggiarsi ad un server centrale. Se il Web 2.0 si basa sulla connessione fra persone, il Web 3.0 si baserà sulla connessione tra informazioni. Ma in pratica che cos’è il web 3.0?
    CARATTERISTICHE DEL WEB 3.0 a. TRASFORMAZIONE DEL WEB IN UN DATABASE attraverso database RDF distribuiti nella rete b. SVILUPPO DELL'INTELLIGENZA ARTIFICIALE capace di interagire con il Web in modo quasi umano c. EVOLUZIONE VERSO IL 3D WEB del quale abbiamo già un’anticipazione con second life tutto questo, unito alle precedenti innovazioni, dovrebbe portare infine alla
    d. REALIZZAZIONE DEL WEB SEMANTICO cioè la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) siano associati ad informazioni e dati (metadati) che ne specifichino il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e, più in generale, all'elaborazione automatica Il web verrebbe così ad essere costituito da una trama significante che linkerebbe ogni temine ad altri utili per la sua comprensione
    Il Web 3.0 non sarà più un semplice contenitore di parole/ immagini/filmati, ma un contenitore di concetti, una base di conoscenze dotato di strumenti (tecniche di Intelligenza Artificiale) in grado di cercare con precisione, mettere in relazione, ‘capire’ automaticamente il significato dei contenuti e di ragionare su di esso, estraendone informazioni Però per poter operare efficacemente tra le infinite informazioni del web, questo deve essere trasformato in un database
    DIFFERENZE TRA GLI STADI DEL WEB
    Questa presentazione in italiano spiega il Web semantico Mentre quest’altra mostra le differenze tra Web 2.0 e Web 3.0

    http://www.slideshare.net/littlepan/web3-presentation

    RispondiElimina
  5. Rocco Munciguerra23 aprile 2009 21:59

    Con il Web 3.0 la comunicazione istituzionale diventerà interattiva


    ROMA
    Il futuro della comunicazione istituzionale interattiva, tra nuove forme di partecipazione dei cittadini e sviluppi del "Web 3.0". Questi i temi al centro della conferenza organizzata dal Club of Venice (il coordinamento dei direttori della comunicazione istituzionale dei Paesi europei e dell’Ue) a Bruxelles, che anticipa le due sessioni semestrali previste a Parigi a fine maggio e a Venezia a novembre.

    «Nei Paesi in cui si spinge per adeguare l’attività del settore pubblico nei social media - si legge nel comunicato conclusivo dell’appuntamento - avanzano anche i criteri di valutazione intorno a queste esperienze» attraverso «interessanti forme di monitoraggio qualitativo e quantitativo delle modalità di ascolto mediato degli interessi organizzati e non organizzati».

    «L’interattività - prosegue la nota - è ormai un quadro stabile di lavoro in cui gli utenti formano una parte rilevante dei contenuti». Tra i partecipanti ai lavori Niels Thogersen, ex direttore della comunicazione della Commissione Ue, Olivier Alsteens, direttore generale dell’informazione del governo belga, che prenderà la presidenza di turno dell’Ue nel secondo semestre del 2010, e per l’Italia Anna Maria Villa e Anna Maria De Caroli, dirigenti del dipartimento Affari comunitari.

    «Il principio metodologico - ha sottolineato Thogersen - non è più quello dell’ascolto ma quello delle regole della democrazia partecipativa». La comunicazione pubblica per ottenere «livelli crescenti di conoscenza, partecipazione e identificazione» ha spiegato Stefano Rolando, presidente del Club of Venice, «ha bisogno di costi bassi e di tempi lunghi di apprendimento sociale. Dunque Web 2.0 e ora anche 3.0 sono campi operativi e formativi» che faranno la differenza.



    http://www.lastampa.it/_web/cmstp/tmplrubriche/tecnologia/grubrica.asp?ID_blog=30&ID_articolo=6063&ID_sezione=38&sezione=News

    RispondiElimina
  6. SCENARI Testi, immagini, suoni stanno sovraccaricando la Rete. E per gli esperti il giorno del mega collasso e' vicino TITOLO: Internet, una corsa verso l' ingorgo "Macche' autostrada, e' un sentiero"."Stiamo correndo dritti verso il collasso". Bob Metcalfe, fondatore della 3Com Corporation, non ha il minimo dubbio: "Internet rischia di crollare sotto il peso del proprio successo. Un' enorme quantita' di dati, di testi e di grafici, ma soprattutto di segnali audio e video, viaggia ogni giorno per il mondo grazie all' impressionante sviluppo che ha avuto il World Wide Web. Solo che la rete non era stata costruita per sopportare tutto questo. Non ne e' in grado. E il momento della resa dei conti si fa sempre piu' vicino". La solita Cassandra? Non esattamente. Che un partito dei catastrofisti sia sempre esistito, e' storia vecchia. Ora pero' a ingrossarne le fila si stanno aggiungendo voci autorevoli. Lo stesso Metcalfe, dopotutto, e' considerato un autentico guru in materia. E come lui la pensano ormai molti altri. Per esempio Andrew Seybold, ex vicepresidente e chief computer analist della societa' di ricerche Dataquest, ora direttore della Outlook on Communications and Computing, una delle piu' rispettate newsletters del settore. Anche Seybold e' convinto che il grande ingorgo sia alle porte. "Le autostrade dell' informazione profetizzate da Al Gore sono ancora di la' da venire . spiega ., per ora Internet e' solo un sentiero, sempre piu' intasato di traffico". Uno scenario identico lo delinea anche un' altra ascoltata societa' di ricerche, International Data Corp., che nel suo ultimo rapporto prevede un colossale "imbottigliamento" sulle linee statunitensi entro i prossimi sei, sette mesi. Del resto, qualche segnale in questo senso e' gia' arrivato. Il mese scorso, per esempio, tutti gli utenti della Mci che vivono nella West Coast americana hanno dovuto fare i conti con un black out di oltre due ore, perche' le linee erano andate in tilt. E qualche giorno fa il Merit Network, uno dei grandi "snodi" di traffico Usa, ha ammesso che nelle ore di punta il 10% dei dati trasmessi su Internet va perso. Nessuno, comunque, s' aspetta un improvviso, totale collasso della rete delle reti. Piuttosto, si moltiplicheranno in misura esponenziale quelli che gli esperti definiscono brownouts, un termine utilizzato nell' industria elettrica per indicare i periodi in cui la corrente, pur senza interrompersi completamente, affluisce a velocita' estremamente ridotta. Tanto bastera' a frenare ogni entusiasmo, a dare un drastico colpo di freno alle potenzialita' di sviluppo di Internet. O meglio, del business di Internet. Perche' se i surfisti della domenica possono anche tollerare collegamenti piu' lenti, non altrettanto sono disposte a fare le aziende. E tutte le grandi imprese hanno gia' un proprio sito Web, nella prospettiva non solo di comunicare con il villaggio globale, ma soprattutto di vendere servizi e prodotti. Tanto per fare ancora un esempio americano, quasi 200 dei 500 maggiori gruppi industriali classificati dalla rivista Fortune si trovano oggi in questa situazione. "Se Internet non sara' in grado di soddisfare le nostre esigenze, tanto vale lasciar perdere", e' il leit motiv che si sente ripetere fra gli imprenditori. Qualcuno, anzi, lo ha gia' fatto. Altri sono alle prese con bruschi cali nel numero di accessi alla loro homepage. Come Espn, una societa' d' informazioni e servizi commerciali di carattere sportivo fra le piu' gettonate negli Stati Uniti che, proprio a causa della lentezza dei collegamenti in Rete, ha visto dimezzarsi negli ultimi due mesi il numero dei suoi potenziali "clienti". Internet, insomma, si sta rivelando una ragnatela fragilissima. Nata per scopi militari e accademici, e' cresciuta, nella piu' totale anarchia, fino a contare oggi varie decine di milioni di utenti, qualcosa come 95 mila networks connessi e piu' di 110 mila siti Web. Ogni 30 secondi un nuovo cibernauta entra in rete. E Dataquest calcola che ci saranno 200 milioni di utenti entro il Duemila. I punti a piu' alto rischio di collasso, pero' , non stanno tanto in periferia, quanto piuttosto nel centro stesso del sistema, nella sua spina dorsale e nei cosiddetti Nap' s, gli snodi di accesso. Come dire, in quel labirinto di cavi che, per quanto riguarda gli Stati Uniti, fino a un anno fa erano sotto il controllo della National Science Foundation e che ora fanno capo a compagnie telefoniche e affini, sia pubbliche che private: dalla Mci a Netcom, da Sprint a Uunet e Ans. "Per garantire un futuro a Internet servono investimenti per centinaia di miliardi di dollari . spiegano gli addetti ai lavori . uno sforzo colossale che nessuna societa' e' in grado di fare da sola. Non solo. Certe porzioni della rete appartengono a una sola azienda, mentre altre sono in comune. E non c' e' nessuno disposto a spendere soldi che andranno anche a vantaggio della concorrenza". Conclusione: "Il problema sara' risolto definitivamente solo quando le autostrade informatiche saranno diventate una realta' , quando la rete sara' collegata attraverso cavi a banda larga e fibre ottiche", assicura Metcalfe. Prima di allora, prepariamoci a sopportare un brownouts dopo l' altro. O ad affrontare il grande collasso. Quando avverra' ? Sia International Data, sia Andrew Seybold lo danno per probabile entro quest' anno. Per Metcalfe la data da tenere d' occhio e' invece il luglio 1996, quando ad Atlanta saranno in corso le Olimpiadi e milioni di fans di tutto il mondo confluiranno sui server allestiti dall' Olympic Committee e dall' Ibm per fornire in tempo reale classifiche, tempi, interviste audio, fotografie, filmati e altre forme di entertainment che gli inventori di Internet non avrebbero mai immaginato dovessero un giorno passare sulla loro ragnatela.(di RADICE GIANCARLO)http://archiviostorico.corriere.it/1996/maggio/25/Internet_una_corsa_verso_ingorgo_co_0_9605256153.shtml Sir Tim Berners-Lee è il padre, assieme a Robert Caillau, del World Wide Web, ed ha sempre seguito con passione e cura lo sviluppo della sua creatura, tanto da essere il Presidente del W3C, il World Wide Web Consortium, associazione nata nel 1994 con lo scopo di migliorare i protocolli e i linguaggi esistenti per il web e di favorirne lo sviluppo e le potenzialità. Ora lancia una nuova iniziativa che intende portare la grande Rete lì dove non è ancora arrivata. Recenti e numerosi sono gli interventi di Berners-Lee a proposito del web: ultimamente, ad esempio, ha bacchettato la Microsoft perché Internet Explorer non supporta nativamente il formato grafico SVG, promosso dal World Wide Web Consortium. Di particolare importanza appare essere il discorso da lui tenuto il 14 settembre scorso al Newseum di Washington, D.C., di fronte agli ospiti della John S. and James L. Knight Foundation, lo scopo istituzionale della quale è quello di promuovere la libera circolazione dell’informazione, per contribuire allo sviluppo della società civile.In questa sede, Sir Tim ha annunciato che, nei primi mesi del prossimo anno, inizierà la sua attività la World Wide Web Foundation che avrà essenzialmente tre obiettivi: favorire l’apertura e la libertà del web, espandere le sue capacità ed estendere i suoi benefici a tutta la popolazione mondiale.

    “Il Web è una formidabile piattaforma di innovazione, ma occorre superare numerose difficoltà per renderla utile, in particolare per le popolazioni mal servite”, ha dichiarato Bernes-Lee con un esplicito riferimento all’ottanta per cento della popolazione mondiale, che attualmente non ha alcuna possibilità di connettersi alla Rete. “Tramite questa nuova iniziativa, continua Berners-Lee, speriamo di sviluppare un ecosistema internazionale che aiuterà a costruire il Web del futuro. Un web aperto a ognuno di noi, sarà utile a tutti”.

    Al termine del discorso ha preso la parola Alberto Ibargüen, presidente della fondazione Knight. “La libera circolazione dell’informazione riveste un’importanza cruciale per le popolazioni in una democrazia e il mantenimento della libertà del Web è essenziale per il futuro di questa libera circolazione. Gli interessi della Knight Foundation e quelli della World Wide Web Foundation coincidono perfettamente e noi siamo molto felici di essere i primi donatori di questa fondazione”, ha dichiarato Ibargüen annunciado anche che avrebbe messo a disposizione della fondazione di Berners-Lee la somma di cinque milioni di dollari. (http://www.tuxjournal.net/?p=4359)

    RispondiElimina
  7. Eugenio Francesco Rimo24 aprile 2009 23:10

    Il futuro Web 3.0 «sarà un Web 2.0 senza barriere», più accessibile per tutti e da ogni tipo di dispositivo. È la visione che Tim Berners-Lee, il padre del World Wide Web, ha illustrato nel discorso inaugurale della 18ma Conferenza mondiale del Consorzio www in corso a Madrid.

    Per Sir Berners-Lee i siti «recintati», che impediscono l’accesso ai loro dati, i cosiddetti ’walled gardens’, si dovrebbero aprire: è meglio che i dati siano disponibili che chiusi, ha assicurato, rivolgendosi anche alle aziende.

    Per Lee importantissima sarà anche l’apertura verso i cellulari - attraverso i quali molte persone, soprattutto nel 3§ mondo accedono per la prima volta a Internet. Lo scienziato ha infatti ricordato che solo il 23% della popolazione mondiale è connessa a Internet.

    Internet ha cambiato la vita di milioni e milioni di persone, ma la rivoluzione è solo all’inizio di una nuova era. «Il Web come l’ho immaginato è ancora tutto da vedere», ha detto Berners-Lee. Le percentuali di internauti sono ovviamente più alte nei paesi sviluppati, mentre solo il 5% degli africani ha accesso alla rete. Una percentuale che è comunque destinata a salire, visto che l’accesso tramite telefonia mobile non rende più indispensabile l’utilizzo di un computer

    Fonte: LaStampa.it

    RispondiElimina
  8. Marilena Caccavale25 aprile 2009 13:31

    A Madrid la conferenza globale "www 2009"

    MADRID
    Se a decretare successo e crescita esponenziale dell’utilizzo di Internet sono stati fin qui i giovani, nei paesi sviluppati ora cominciano a esserlo soprattutto gli ultra settantenni. Lo rivela un rapporto del Pew Internet Life Project, presentato oggi a Madrid all’apertura della conferenza globale del World Wide Web.

    Se nel 2005 solo una persona su quattro (25%), fra coloro che avevano 70 anni ed oltre, utilizzava internet, l’anno passato la percentuale si è attestata sul 45% e fra gli ultra 76enni è cresciuta nello stesso periodo dal 17% al 27%.

    «Gli adulti anziani rappresentano attualmente la fascia demografica che segna il maggior incremento nell’utilizzo della rete», ha detto Vicki Hanson, professore dell’università di Dundee in Scozia.

    Cifre simili si sono registrate anche in Gran Bretagna, ha detto Andrew Arch del World Wide Web Consortium (W3c), una delle principali organizzazioni internazionali presenti sul web. «Gli anziani fanno più o meno le stesso cose degli altri. Utilizzano il web per comunicare, per cercare informazioni, per effettuare operazioni bancarie e per gli acquisti». Fra coloro che hanno compiuto almeno 64 anni, l’attività più gettonata è quella di inviare e ricevere mail.

    Visto che si prevede che nel 2050 gli ultrasessantenni rappresenteranno il 20% della popolazione mondiale e che un po’ in tutto il mondo si tende ad alzare l’età del pensionamento, il fenomeno dei vecchi internauti è destinato a crescere.

    La conferenza di Madrid durerà cinque giorni, durante i quali verranno presentati i risultati di oltre 105 ricerche, molte delle quali dedicate alla tv interattiva, alle applicazioni per i dispositivi portatili e alla sfida fra i nuovi media e quelli tradizionali. La conferenza, giunta alla sua diciottesima edizione, si è svolta lo scorso anno in Cina e si terrà l’anno prossimo negli Stati Uniti.

    Stella del congresso sarà Tim Berners-Lee, inventore della rete, che mercoledì terrà una conferenza sui principali sviluppi di internet e sul suo futuro.

    Lo stesso giorno parteciperà ad una tavola rotonda con un altro dei "padri" di Internet, Vinton Cerf, l’uomo che sviluppò i protocolli che permettono oggi la trasmissione di dati tra computer.

    Fonte: la Stampa

    RispondiElimina
  9. Giulia Eleonora Zeno26 aprile 2009 17:21

    Web 3.0: il futuro di Internet secondo Tim Berners-Lee il creatore del Web. Intervista integrale
    a cura di Pierluigi Emmulo

    Tim Berners-Lee è uno dei guru del Web. Ha inventato il World Wide Web che ha permesso di trasformare la rete in un universo globale di informazioni accessibile a tutti. In un’intervista rilasciata a Times Online che riportiamo integralmente riflette su quale possa essere il futuro del Web – il Web 3.0.

    Google potrà essere soppiantata nel suo ruolo di azienda dominante in Internet da una nuova azienda che saprà sfruttare le potenzialità della tecnologia Web della prossima generazione. Lo dice l’inventore del World Wide Web.

    Il gigante della ricerca ha sviluppato una modalità estremamente efficace di cercare pagine su Internet, osserva Tim Berners-Lee, ma questa abilità impallidisce al confronto con quello che potrebbe essere realizzato nel “Web del futuro”, che permetterebbe a ogni frammento di informazione – come una foto o un estratto conto bancario – di essere collegato a qualsiasi altro.

    Allo stesso modo Berners-Lee ritiene che l’entusiasmo attuale per i siti di social network come Facebook o MySpace sarà scalzato da quello per i network che connetteranno tutti i tipi di contenuti – non solo persone – grazie a una tecnologia rivoluzionaria nota come “Web semantico”.

    Il Web semantico è il termine utilizzato dall’industria dei computer e di Internet per descrivere la prossima fase dello sviluppo del Web e in sostanza si riferisce alla realizzazione di collegamenti Web-based che interessano qualsiasi genere di dati – non solo una pagina Web – in modo che possano “comunicare” con altre informazioni.

    Mentre il Web esistente è una raccolta di pagine con link tra loro che Google e altri motori di ricerca aiutano gli utenti a visitare, il “Web semantico” consentirà collegamenti diretti tra molti più pezzi di informazione a basso livello – il nome di una strada scritto da qualche parte e una mappa, per esempio – che volta per volta genereranno nuovi servizi.

    «Usando il Web semantico, si possono creare applicazioni che sono molto più potenti di qualsiasi cosa attualmente presente nel Web attuale» afferma Berners-Lee. «Immaginiamo cosa succederebbe se due cose del tutto distinte – come un estratto conto e la propria agenda – parlassero la stessa lingua e potessero condividere informazioni l’una con l’altra. Si potrebbe trascinarne una sull’altra e immediatamente apparirebbe una quantità di spunte sull’agenda a indicare in modo preciso quando si è speso del denaro. Se poi non si fosse sicuri sul posto in cui si è effettuata una certa transazione, si potrebbe trascinare il proprio album di foto sul calendario e si verrebbe informati che la carta di credito è stata usata nello stesso giorno in cui si stavano facendo le foto dei propri bambini al parco. In questo modo si potrebbe sapere che una certa uscita di cassa non deriva dall’addebito di una tassa... In sostanza si tratta di una trama senza cuciture che comprende tutte le informazioni che riguardano la propria vita».

    Un esempio fatto frequentemente è quello di digitare in un documento un indirizzo stradale che, se contenesse dati semantici, si collegherebbe direttamente a una mappa capace di mostrare la sua posizione, evitando così di dovere effettuare una ricerca precisa in un sito come Google Maps, dove è necessario scrivere il nome della strada, trovare il link e inserirlo in un documento o in una email.

    Gli esperti sostengono che la sfida è quella di trovare un modo per rappresentare tutte le informazioni in modo che quando ci si connette al Web i collegamenti ad altre informazioni rilevanti e pertinenti possano essere individuati e stabiliti – in qualche modo come il processo denominato “tagging”. Un’applicazione di questo nuovo modo di concepire i dati è nell’industria farmaceutica, dove parti di ricerche inizialmente non collegate riguardanti una malattia o un farmaco possono essere congiunte e unite.

    Berners-Lee, che ha inventato il World Wide Web nel 1989 mentre lavorava al CERN, l’Organizzazione Europea per la Ricerca Nucleare che ha sede in Svizzera, non si preoccupa di definire i tipi di applicazioni che il “Google del futuro” riuscirà a sviluppare, ma ritiene che sarà sicuramente una specie di assemblatore in cui l’informazione è prelevata da qualche parte e resa utile in un altro contesto mediante il Web.

    Assemblatori di questo tipo esistono già, come i programmi che indicano su una mappa di Google l’ubicazione di ogni Starbuck [una catena americana di bar di lusso, n.d.R.] in una città: sono un inizio, ma è ancora limitante perché bisogna sviluppare un’applicazione separata ogni volta che si vuole realizzare un nuovo servizio.

    «Nel Web semantico è come se ogni frammento di informazione fosse dotato di una longitudine e una latitudine su una mappa e chiunque può assemblare questi dati e usarli per fini diversi».

    Berners-Lee, che attualmente è direttore del Web Science Research Initiative, un progetto che coinvolge il Massachusetts Institute of Technology e l’Università di Southampton, cerca di contestualizzare la rapida crescita degli ultimi anni dei siti di social network, dicendo che una volta che il Web semantico verrà introdotto sul mercato saranno immediatamente trattati solo come uno dei vari tipi di network disponibili.

    «Al momento tutti sono molto eccitati dalla possibilità di creare tutte queste connessioni tra le persone – per ragioni ovvie, perché le persone sono importanti – ma io penso che tra un po’ la gente inizierà a capire che ci sono molte altre cose che si possono interconnettere mediante il Web».

    Un altro aspetto considerato da Berners-Lee è quello che può essere ritenuto a buon diritto la sfida chiave del Web contemporaneo, ossia fronteggiare i rischi relativi alla sicurezza associati alla gestione di una grande mole di informazioni che sono appetibili per i criminali e per i truffatori che mirano a rubare dati personali.

    «Ci sono sicuramente modi adeguati per affrontare questa minaccia. Ritengo che presto si vedrà una nuova situazione in cui tipi diversi di crimini diventeranno attuabili e lucrativi ed è qualcosa di cui dobbiamo costantemente essere al corrente. Un’opzione è quella di sviluppare sistemi capaci di tracciare in modo più preciso quali informazioni sono state usate per ottenere un certo risultato e assicurarsi così che le persone non usano i loro diritti per fare cose che non si dovrebbero fare».

    Fonte:http://www.webmasterpoint.org/speciale/2008mar16-futuro-del-web-secondo-il-suo-creatore.asp

    Giulia Eleonora Zeno

    RispondiElimina
  10. MARIA GRIMALDI27 aprile 2009 23:46

    Internet è stato un evento straordinario per la storia del genere umano: mai le informazioni sono potute circolare con tale facilità. Nonostante siano passati vent'anni dalla creazione della rete, non si può però ancora dire di essere in una fase matura, principalmente perché internet è accessibile solo al 23 % della popolazione mondiale, per lo più nelle nazioni industrializzate, mentre i paesi in via di sviluppo ne sono praticamente esclusi. Perciò il web non è ancora world wide.
    Lo ha affermato a Madrid il padre del web Tim Berners-Lee, durante il 18esimo International World Wide Web Conference. Solo quando si navigherà in ogni parte del mondo e tutti i dati saranno sul web, si potrà dire che internet ha raggiunto uno stadio maturo.
    Secondo i ricercatori riuniti a Madrid nel prossimo futuro si navigherà molto più velocemente sfruttando soprattutto la telefonia mobile, vi saranno nuove tecnologie per supportare il maggior volume di informazioni richiesto e anche i dispositivi domestici saranno controllati online.
    Il Web 3.0 è un termine a cui corrispondono significati diversi volti a descrivere l'evoluzione dell'utilizzo del Web e l'interazione fra gli innumerevoli percorsi evolutivi possibili. Questi includono:
    • trasformare il Web in un database, cosa che faciliterebbe l'accesso ai contenuti da parte di molteplici applicazioni che non siano dei browser;
    • sfruttare al meglio le tecnologie basate sull'intelligenza artificiale;
    • il web semantico;
    • il Geospatial Web;
    • il Web 3D.
    (wikipedia)
    Il futuro Web 3.0 «sarà un Web 2.0 senza barriere», più accessibile per tutti e da ogni tipo di dispositivo. È la visione che Tim Berners-Lee, il padre del World Wide Web, ha illustrato nel discorso inaugurale della 18ma Conferenza mondiale del Consorzio Wwww a Madrid.

    Ci sono all' orizzonte novità importanti, che riguardano la rete e il nuovo modo di concepirla.

    La ricerca nel campo della tecnologia prevede un nuovo protocollo per la comunicazione via web basato sui comandi vocali, grazie a cui si possa modificare in parte il concetto stesso di una rete sviluppata solo su ipertesti. Il protocollo è "hyper-speech transfer protocol" che dovrebbe sostituire o quanto meno coesistere con il classico sistema su cui si basa attualmente il web, l' "hyper text transfer protocol". La differenza, secondo i ricercatori dell' IBM, il colosso informatico che sta sviluppando il progetto, sarà nelle modalità di collegamento, che avverrà attraverso un comando vocale con cui navigare nelle varie sezioni di un numero telefonico e collegarsi quindi alle varie pagine.

    Non più attraverso la tastiera ma solo attraverso un microfono, con cui raggiungere tutte le informazioni di cui si necessita. Da tempo i ricercatori nel settore hanno abbracciato l'idea sencondo cui la tastiera appare come uno strumento scomodo e ad essa siano preferibili altri strumenti, come appunto la voce. E' già reale infatti l'idea della Apple di effettuare ricerche parlando al cellulare attraverso l' Iphone e adesso gli stessi prinicipi trovano applicazione altrove, fino a sviluppare un nuovo rapporto tra gli utenti e la rete stessa. Utenti che, se le premesse troveranno conferma in futuro avranno l'occasione di stabilire un modo di comunicare, differente, sempre più interattivo, sempre più nuovo.


    MARIA GRIMALDI

    RispondiElimina
  11. Internet era partita intorno agli anni 90, percorrendo la strada fino ai giorni nostri, come un grande contenitore di pagine statiche, spesso talmente noiose o puramente pubblicitarie, che non raccoglievano un grande pubblico. Questo era il web 1.0 agli inizi della sua evoluzione. Era un orgoglio essere possessori di uno dei primi indirizzi di posta elettronica e avere un abbonamento internet…

    Pian piano il web, la rete, ha accresciuto il numero dei suoi utilizzatori, con l’implemento dei siti internet, mediante linguaggi sempre più complessi come l’html, e con l’avvento di alcune piattaforme quali le Chat IRC (Internet Relay Chat) che permettevano un contatto tra le persone in tempo reale.


    Con l’avvento di nuove forme di fruizione dei contenuti, pian piano l’attenzione per la rete è cresciuta in tutto il mondo facendo aumentare in modo esponenziale il numero dei possessori di personal computer e di utenti attivi. Ma si era partiti da un accesso alla rete condizionato dalla scarsa velocità dei modem e i servizi forniti dai provider, erano dapprima a pagamento, poi gratuiti ma pieni di problematiche. Vi ricordate i modem a 56K ? Certo, ancora oggi sono montati sulle nostre macchine, ma ormai ci servono unicamente solo per situazioni di emergenza… Ora si viaggia in Internet con Adsl potentissime e fibra ottica…abbiamo reti senza fili (wireless) che collegano il nostro pc in rete e componenti del pc tra loro (mouse e tastiere senza fili, stampanti ecc).

    Il web dal semplice 1.0 con email e poco altro si è evoluto a quello che oggi noi usiamo, ed ha al suo interno siti internet fatti con linguaggi sempre più complessi come SQL, piattaforme in ambiente Windows e MacOs, l’implementazione di banche dati (database) che nella rete ci servono per costruire siti sempre più ricchi nei contenuti e, soprattutto, navigabili poiché mettono a nostra disposizione informazioni consultabili, con parole chiave, mediante motori di ricerca come quelli forniti da Google, Yahoo etc.


    E pian piano siamo arrivati al web 2.0 quello di cui usufruiamo oggi, con siti interattivi che usano tecnologie come quelle di scambio file Peer to Peer (Winmx, Emule etc.) o siti web implementati da linguaggio Java, animati in Flash, o anche consultare enciclopedie come le Wiki o i blog creati dagli stessi utenti. La possibilità di fare videoconferenze da un capo all’altro del mondo.

    I Feed RSS ad esempio sono uno strumento che sta avendo un successo inaspettato agendo come ausilio di trasporto dei contenuti aggiornati di nostro interesse, scaricando tutti gli aggiornamenti che ci interessano su un argomento in automatico direttamente sul nostro pc… una ricerca al contrario insomma… E che dire dei programmi o implementazioni open source creati per noi da noi e utilizzabili totalmente in maniera gratuita? Una grande innovazione e una risorsa inestimabile, oltre che essere comunque programmi migliorabili anche dagli utenti che li utilizzano e che ci danno ad esempio la possibilità di creare e pubblicare anche siti internet, blog o siti commerciali in pochi minuti.

    Oggi le transazioni con carta di credito sui siti web sono estremamente sicure, tutelate da encriptazione dati a 128 bit (siti con prefisso https) e avere frodi sulla propria carta è più difficile, a meno che non si clicchi su una email contraffatta che ti porta ad inserire i dati personali, rivelandoli, in siti truffaldini, creati apposta per frodare utenti ignari (controlliamo sempre la veridicità dei link, i collegamenti che da una mail ci portano su internet, dato che il sito della banca o quello di un negozio o quello delle poste italiane, non ci chiederanno mai di inserire i nostri dati personali in un sito via email).


    Esistono poi, mondi in 3D che hanno permesso alla semplice Chat scritta, di avere contatto totale tra persone, calate in avatars, che si conoscono, colloquiano, costruiscono rapporti ed hanno comportamenti e interazioni, non più solo con il linguaggio, ma anche con movimenti del corpo e azioni che entrano nel nostro spazio in tre dimensioni e lo modificano.


    Uno degli esempi strepitosi è appunto Second Life, mondo virtuale popolato dagli avatar e costruito, secondo dopo secondo, dagli avatar stessi. Un mondo che è una fonte inesauribile di interazioni di ogni tipo e sempre in continua espansione. In questo tipo di realtà parallele ci si può mettere in contatto con persone vicine e lontane. Si possono costruire realtà personalissime di tipo familiare, economiche, commerciali, culturali, di arte e così via, all'interno della realtà virtuale stessa.

    Questo è ora il web 2.0, un insieme di contenuti fatti da noi, costruiti dagli utenti che sempre più in maniera attiva esprimono le loro esigenze, le loro opinioni, inseriscono dati, diffondono notizie e collegano tutta la rete con fili sottili d’interazione tra computers e quindi tra persone…


    Questo overload di dati e informazioni però, ora non è così supportato da metodologie di ricerca delle informazioni precise, riportando affidabilità dei risultati di ricerca stimata ora nel 15-25%. Infatti sono basati su ricerche di parole chiave e non semantiche, non dei concetti e dei contenuti, poichè non sanno distinguere ciò che è utile da quello che non lo è.

    Ovviamente la tecnologia, in aiuto nella creazione di questa sottile rete di contenuti, non si ferma, portandoci, negli anni a venire, verso il web 3.0 e oltre verso il 4.0: una tecnologia semantica che saprà riconoscere non solo le semplici parole, scandagliando tutto quello che mettiamo nei nostri interventi o nelle pagine web, ma inquadreranno il contenuto globale dell’argomento, sapranno riconoscerne i concetti. Soprattutto, li trasporteranno mediante sistemi innovativi verso di noi, verso i nostri profili individuali, verso le nostre esigenze.


    Sarà un sistema capace di cercare con precisione, mettere in relazione ed estrarre informazioni, utilizzando tecniche raffinate di Intelligenza Artificiale.


    Il web 3.0 è già in azione, in parte già è reale, sta solo crescendo…

    http://www.ircouncil.org/news/news_34

    RispondiElimina
  12. Antonia Iodice30 aprile 2009 00:11

    Internet è stato sicuramente un fenomeno importante che ha cambiato la vita di milioni e milioni di persone facendo superare la concezione di computer come mera macchina personale per l’elaborazione dei dati e facendolo divenire anche un vero e proprio mezzo di comunicazione efficiente. Come si sa ogni tecnologia è sempre soggetta a nuove elaborazioni e così anche internet ha subito una serie di “innovazioni” prima di arrivare ad essere quello che oggi tutti conoscono “pur sommariamente”….ma la rivoluzione, ci dicono, è solo all’inizio di una nuova era…!!

    «Il Web come l’ho immaginato è ancora tutto da vedere» Tim Berners-Lee

    Dalla nascita del web, grazie a Tim Berners Lee, ai giorni nostri si è già parlato di web 1.0, web 2.0 fino ad arrivare all’attuale “progetto” del web 3.0, ideati per migliorare (almeno si spera) l’idea di utilizzo del web,per “creare” un nuovo approccio con esso.
    Quando i termini “web 1.0” prima, e “web 2.0” poi stavano spopolando sulla rete tutti si chiedevano effettivamente come potrebbe essere la rete da lì a qualche anno.
    Già da qualche anno comincia a girare il 3.0, ma il momento per questa nuova ”rivoluzione”, come già detto, deve ancora arrivare, o almeno così parrebbe.
    Il web 3.0 è spesso definito col termine “web semantico“, una rete in cui tutto è catalogato e può essere reperito facilmente in base al contesto e ai parametri scelti.
    Un esempio semplicissimo è quello di facebook: i tag sulle foto non sono altro che una forma ridotta e semplicistica di web semantico, dove le immagini vengono catalogate in base alla persona, e andando sul profilo di questa si possono vedere tutte le foto associate.
    L’idea del 3.0 è rendere questo concetto molto più esteso e dettagliato, dove tutto è a portata di mano senza alcuna perdita di tempo.
    Un web intelligente, legato non più alle parole ma ai significati, una vera e propria forma di intelligenza artificiale che ci aiuta e ci guida attraverso le miriadi (quasi infinite) di informazioni che internet ti mette a disposizione.
    Suona come fantascienza, ma siamo forse più vicini di quanto si possa pensare. Molte aziende stanno cercando di sviluppare una cosa simile, cercando di arrivare ad una multi-coscienza che spingerà sempre più ad una biblioteca universale dove tutto è disponibile a tutti, e sempre accessibile.

    Si parla di web 3.0 già dal 2006 ma credo che la vera rivoluzione si avrà quando chiunque avrà coscienza del web e capirà che il web esiste e non è messo lì come un semplice passatempo ma come fonte di innovazione di tutti i giorni.

    Come si sa non tutti sono favorevoli a questi "cambiamenti" e questo articolo di Vittorio Zambardino ne è la conferma.

    Troppo traffico online. E l’allarme degli esperti scatena una polemica che divide il popolo della rete

    Anche Internet “invecchia”? È vero che la rete potrebbe rimanere congestionata come la tangenziale alle otto di mattina, finendo col trattare i file di YouTube come automobili in coda, ingolfata dalle nostre abitudini che “mangiano banda passante”? Ci ritroveremo a rosicchiare le unghie mentre il sito non appare, sperando che qualcuno ci offra una corsia preferenziale? E sarà vero che la rete diventa di mese in mese sempre più vulnerabile agli attacchi dal “lato oscuro della forza “, spie e gangster virtuali, sempre all’opera per mettere in atto qualche truffa o lavorare per conto terzi nello spionaggio politico e industriale? Su questo c’è scontro tra scienziati e “allarmisti”.
    Che sia necessario innovare è un’idea che trova d’accordo anche Tim Berners-Lee, uno dei due inventori del World Wide Web che ha detto a Madrid: “Il web del futuro, ovvero il web 3.0, sarà senza barriere, più accessibile per tutti e da ogni tipo di dispositivo, dal telefono all’ebook”. Ma il fisico che al Cern, insieme a Robert Caillau, concepì nel 1989 il servizio che oggi ci fa navigare tutti, ha una visione ottimistica, aperta e collaborativa della rete. Si fida di chi “ci vive” e più che sui pericoli mette l’accento sul concetto di “apertura” e circolazione di notizie, conoscenze e tecnologie.
    Ci sono invece gli allarmisti. “La rete ha dei limiti” ha scritto Libération pochi giorni fa. Ripetendo le accuse a loro volta contenute in una lunga inchiesta di John Markoff, giornalista del New York Times, sì, ma anche tecnologo e docente a Stanford, che nel febbraio scorso ha messo a rumore l’ambiente con il suo saggio-provocazione: “Abbiamo bisogno di una nuova internet?”. Markoff riprendeva le tesi dei tecnologi del Clean Slate Program, un gruppo di lavoro che proprio nella sua università sta mettendo a punto gli elementi base di una internet “più sicura”.
    Il Clean Slate Program. Punti chiave del progetto sono sia il problema della “saturazione” - l’ingorgo dovuto alla crescita del traffico e alla sua qualità: i file video, la musica, i film, il multimedia dei “social network” - sia quello delle falle che in alcune occasioni (non molte, per la verità, ma clamorose) sono state utilizzate per bloccare e saturare i server di siti importanti. O per deviare i clienti di una banca su false pagine (il “phishing”). O semplicemente per rubare informazioni.
    Infine - ma è il punto di maggior conflitto tra “apocalittici” e “tranquillizzatori” - il Clean Slate punta contro un “sancta sanctorum” della cultura digitale per poter soddisfare una richiesta di tutte le polizie del mondo: l’anonimato e il suo smantellamento. La necessità di identificare con certezza “chi” sta facendo “cosa” sulla rete: se questo è un bit, voglio sapere chi lo manda e dove lo manda.
    La tempesta si spiega anche con il fatto che quello di Stanford è uno dei nomi sacri di internet. Qui è nato l’algoritmo di Google. Chi fa tecnologia a Stanford non è un incompetente. E però. Se è vero che le tesi di Stanford piacciono alle aziende di telecomunicazione, che non hanno mai amato l’internet gratuita e aperta, e se è altrettanto vero che potrebbero dare una grossa mano ai tanti governi nazionali che si adoperano per filtrare e controllare i contenuti, è vero pure che la loro diffusione scatena un rifiuto totale da parte della comunità tecnico-scientifica.
    Alberto Ciampa è un matematico che presso la sezione pisana dell´Infn (Istituto nazionale di fisica nucleare) è una sorta di architetto dei centri di calcolo. Dice: «Questi allarmi mi sembrano molto sovrastimati. Per capire il problema pensiamo ad una rete di strade. Se consideriamo i rettilinei dico che la situazione del traffico è fluida. Qualche problema nasce agli incroci, dove bisogna smistare le auto, cioè i dati. Qui ci sono delle criticità, ma parlare di saturazioni, crolli e catastrofi è davvero folcloristico: la capacità di banda della rete cresce con grande anticipo sul carico, ci sono studi continui per migliorarla. Anche delle fragilità, poi, si parla come se internet fosse una prateria abbandonata a se stessa: al contrario, se c´è una violazione i responsabili del sistema sono avvertiti entro dieci minuti. La rete ha i suoi presìdi, le sue sentinelle, non è una terra desolata».
    In effetti sul tema della saturazione è intervenuto un insospettabile, sia per competenza che per curriculum. Andrew-Odlyzko, matematico della Minnesota University, ha lavorato a lungo con la Cisco (l’azienda che produce l’hardware, il “motore” dei server che fanno andare la rete). Di recente Odlyzko ha scritto che in realtà il traffico internet cresce troppo poco rispetto a quanto dovrebbe fare per poter garantire la crescita economica dei paesi occidentali.
    Enrico Mazzoni all’Infn di Pisa è l’assessore al traffico del centro di calcolo. Si occupa di dodici reti, è un fisico e non solo non crede alla “saturazione”: «L´unica vera saturazione è quella degli indirizzi. A tendere potrebbero esaurirsi perché la rete sta crescendo in modo molto rapido». Ma si oppone anche all´idea che sia necessario lavorare ad un nuovo protocollo: «I cinesi, che sono oltre un miliardo, stanno già lavorando con il prossimo protocollo, l’IPV6. Consente alti volumi di traffico, è sicuro, permette di pensare a una rete del futuro. Certo se ci aspettiamo che possa ancora bastare il protocollo IPV4, progettato negli anni ‘70, quando la rete la usavamo noi scienziati e i militari, ed eravamo tutti “galantuomini”, legati a un codice di lealtà e di scambio delle informazioni su base di onestà e collaborazione, ci illudiamo. Ma non è che noi si sia dormito nel frattempo».
    L’internet degli scienziati. Che è esattamente l’argomento dei fautori delle nuove reti chiuse: bisogna superarla, perché è cambiata “l’etica” vigente in rete. Bisogna creare nuove forme di controllo. Alberto Berretti, docente di sicurezza informatica a Roma Tor Vergata, è durissimo: «Vogliono riportate la gente allo stato di utenti e consumatori, mentre oggi le persone digitali sono soggetti che parlano, scrivono e dicono la loro. Hanno visto il caso Obama e si sono spaventati. La rete sposta voti, la rete fa consenso, loro non controllano la rete. Quindi vogliono chiuderla. Al suo posto vogliono creare tanti orti recintati, nei quali si legge, si guarda e si consuma quello che decidono i padroni dell’orto.
    Vogliono rifare il Minitel. Un posto dove si fa shopping e dove, magari, senza tanti complimenti, sia possibile controllare le opinioni delle persone».
    Non c’è proprio neanche l’ombra di un pericolo, gli allarmi sono proprio così strumentali? «Gli allarmi non sono strumentali, ma sono narrati in modo paranoico. Tutto è addebitato alla rete, i problemi invece si trovano ai suoi confini: sono le macchine, i computer che si collegano che non sono difesi da virus e attacchi. Sulla rete c’è il crimine come ovunque nella vita. Rappresentare il crimine in modo folle, enfatizzare i pericoli fino a parlare di “11 settembre della rete”, è un’altra cosa. Significa voler mettere le mani nella democrazia».


    Fonte: http://www.vip.it/ingorgo-internet-zambardino/


    Antonia iodice

    RispondiElimina
  13. Lucrezia La Marca11 gennaio 2010 11:54

    Immagina un computer a cui fare delle domande. Immagina di ottenere le risposte che stai cercando. Quando Tim Barners Lee nel 2001 ha ideato e proposto al mondo il concetto di web semantico probabilmente cercava di ottenere proprio questo. In che modo? Oggi il Web è un'interconnessione di documenti a puro uso e consumo delle persone. Ciascun utente è in grado di capire quello che legge, di richiedere eventuali approfondimenti, di verificare e confrontare più versioni della stessa notizia, ma lo stesso non può fare un software che si trova a navigare in un mondo fatto di parole per lui prive di significato.
    Per questo motivo, nessun programma è in grado di sollevarci dal compito di controllare e verificare manualmente le informazioni che cerchiamo, scartando quelle non volute e approfondendo quelle che ci sembrano interessanti. il web semantico ha l'obiettivo di trasformare il World Wide Web in una struttura pensante, basata su un uso più ampio dei dati e delle informazioni (metadati) per ottenere una sorta di immensa rete di relazioni fra documenti web.

    Il web semantico, attraverso l'uso dei metadati - un insieme di informazioni in grado di "catalogare" ogni testo scritto o immagine sul web - si propone di sviluppare un metodo di ricerca molto più evoluto dell'attuale, basato sull'utilizzo di parole chiave che servono a descrivere ciascun documento e sulla creazione di nuovi tipi di "collegamento" fra pagine web. Facciamo un esempio più concreto: immaginiamo di cercare, attraverso un motore di ricerca, la parola "moto". E' un termine ambiguo, e il motore di ricerca non è in grado di gestire autonomamente le differenze di significati; non sarà in grado di capire se siamo alla ricerca di notizie sull'esito dell'ultima garaq di Motomondiale o se cerchiamo informazioni per scrivere una relazione di fisica. Col termine "semantica" (dal greco "sémeìon", segno) si intende proprio designare un nuovo modo di pensare il Web, in cui la connessione fra i testi e le parole va al di là del legame sintattico, ma si basa soprattutto sul significato dei documenti pubblicati e sulla possibilità di metterli in relazione fra loro mediante parole-chiave che sostengono il testo scritto.

    Quello che il web semantico di propone di fare, essenzialmente, è di agevolare i navigatori e di velocizzare la ricerca sul web, offrendo la possibilità di cercare solo ciò che è realmente richiesto. la possibilità di offrire ad ogni collegamento ipertestuale un senso compiuto che va oltre le parole scritte non sarà data da un sistema di intelligenza artificiale , ma semplicemente dall'introduzione di un linguaggio gestibile da tutte le applicazioni e di vocabolari specifici, ossia insieme di frasi alle quali possano associarsi relazioni stabilite fra elementi marcati.
    Pensare al web come ad una infrastruttura regolata nel suo complesso da una struttura semantica significa disegnare una prospettiva incerta, quantomeno a breve e a medio termine. Diverso è il discorso se parliamo dell'uso di schemi semantici all'interno di architetture legate ad un dominio ben definito, quindi a servizio di comunità ristrette di utenti, orientati ad uno scopo preciso. Quì le prospettive immediate sono visibili più chiaramente.

    http://websemantico.splinder.com/?from=1

    http://websemantico.splinder.com/?from=2

    http://websemantico.splinder.com/?from=7

    RispondiElimina