Microsoft, Yahoo!, Google e il prossimo che verrà

L’articolo di Vittorio Zambardino sul monopolio di Google è sicuramente un bel commento alle posizioni di Mr. TechCrunch, alias Michael Arrington, che nei giorni scorsi aveva espresso forti perplessità sull’accordo pubblicitario da 800 milioni di dollari tra Yahoo! e Google. Tra le righe, tuttavia, Zambardino va oltre il tema originale: estende il suo ragionamento sino a comprendere tutta la “guerra per la conoscenza” che, ormai da qualche decennio, sta coinvolgendo il mondo Occidentale. Una guerra che ha visto battaglie importanti ma non ravvicinate all’inizio e che invece sta oggi procedendo a tappe forzate e sempre più veloci, tra un annuncio ai mercati e l’altro.

Bisogna dire che, all’inizio, la guerra era legata soprattutto alla gestione “hardware” della profondità e dell’ampiezza della conoscenza: produrre macchine potenti (e con tanta memoria) rappresentava un buon biglietto da visita presso le grandi aziende ancor prima che presso i privati. Solo l’ascesa di Microsoft e il suo spostare l’asse verso il software, ad inizio degli anni Novanta, era riuscita a cambiare il livello di attenzione collettivo verso queste tematiche. Se prima eravamo abituati a confrontarci con una pletora di produttori di hardware, con Microsoft abbiamo imparato a convivere con un unico fornitore software: un soggetto capace, in apparenza l’unico, di offrire sistemi informativi capaci di gestire informazioni e dati su macchine diverse, in lingue diverse.

Forse proprio Yahoo!, oggi oggetto del desiderio di Redmond, ha fatto cambiare di nuovo paradigma appena pochi anni dopo: la gestione della conoscenza non più necessariamente legata all’hardware locale, ma nemmeno al software. Un solo programmino gratuito, un browser, necessario per accedere al patrimonio importante della directory numero uno: gestita da decine di persone apparentemente esperte, la classificazione del primissimo World Wide Web operata da Yahoo! era uno strumento invincibile per confrontarsi con un mondo nuovo. Solo il rafforzamento dei concorrenti nel far prevalere la tecnologia sull’uomo ha permesso un nuovo salto in avanti: Google non sarebbe esistita senza gli sforzi iniziali di Altavista o Lycos e i loro studi nel data mining.

Ora, ovviamente, viviamo in piena era-Google. Il sistema è pervasivo non tanto e non solo nel suo essere il motore di ricerca più utilizzato, ma anche e soprattutto nell’essere diventato la piattaforma più utile per declinare la maggior parte delle nostre attività in Rete. Ci piace e ci fa paura, ci supporta e ci fa arrabbiare: non possiamo farne a meno, perché permea il nostro mondo e il nostro modo di scrivere e leggere. Nonostante tutto, però, possiamo avere una certezza: Google non sarà l’eterno monopolista. Ci sarà un nuovo soggetto, nel giro di pochi anni, che ne prenderà il posto, lasciando a Google comunque uno spazio enorme, simile a quello attualmente detenuto da Microsoft. Ciò che cambierà sarà il mercato stesso: c’è qualcosa di diverso un po’ più in là, ma lo sapremo solo più in là nel tempo.

La morte dell’URL

Scriveva qualche tempo fa Mauro Lupi in un commento su dot-coma

«In realtà i box di ricerca stanno diventando uno strumento di navigazione, per cui molti scrivono i nomi dei siti sapendo che il primo risultato sarà proprio quello del sito dove voglio andare. Se fai il conto, scrivere “google” sul box di ricerca, dare Invio e cliccare sul primo risultato, fa in totale 8 hits (6 lettere e due click). Andare sulla barra dell’indirizzo del brower, scrivere “www.google.com” e dare invio fa 15 hits (14 lettere e un click). Lo so, ci sono le toolbar o altre cose, ma la SMS-generation risparmia anche su questo ;-)»

Bisogna ammettere che (era il 2006) tutti i puristi del Web ascoltavano questo tipo di scenari con un forte senso di fastidio: si faceva notare la differenza tra il digitare correttamente un indirizzo nella barra dei browser e il vedersi supinamente apparire un motore di ricerca come home page ed utilizzarlo per avviare la navigazione magari digitando nella relativa casellina – orrore! – il nome di siti conosciuti (“ebay”, “amazon”, etc.) o addirittura l’intero indirizzo Web. Un comportamento giustificato dagli utenti in vari modi, ma sicuramente “contrario” alle tradizioni del Web.

Bisogna dire che la casella di ricerca su Firefox prima e soprattutto quella su Internet Explorer 7 poi hanno cambiato lo scenario: non è infrequente avviare una navigazione proprio da lì e – mea culpa! – soprattutto sui dispositivi mobile, si scopre di comportarsi esattamente come gli “utonti” di cui ci si lamentava qualche mese prima. Si finisce a navigare come si faceva 20 anni fa nei walled gardens internazionali: si usano le keyword direttamente nello strumento di navigazione, siano esse i termini di cui sfogliare i risultati su un motore di ricerca o per le quali si ha già in testa un sito ben preciso.

Proprio stasera il blog di Google Italia ha pubblicato una guida sulla corretta formattazione degli indirizzi al fine di renderli più intellegibili al motore di ricerca e più amichevoli per gli utenti finali. I quali, però, ormai destinano pochissima attenzione all’indirizzo dei siti, proprio esercitando una fede immensa nei “poteri” di Google e dei suoi fratelli. I puristi di cui sopra, sui relativi blog, continueranno a formattare nel migliore dei modi i propri indirizzi; i relativi lettori ignoreranno del tutto questi sforzi, continuando a digitare il nome del blog in questione sul motore di ricerca. Stessa ricerca, stesso risultato, tutti i giorni.

Non sono trascurabili gli impatti che questa tendenza ha sulla pubblicità in Rete e su quella tradizionale. La scorsa settimana Josh Catone ha pubblicato un articolo su Kellogg’s in cui racconta il successo di una campagna pubblicitaria tradizionale in cui la call to action non è stata il tradizionale “digita www.qualcosa” ma “inserisci la keyword su Yahoo!”. Il motore di ricerca ha supportato la campagna sia in termini di posizionamento sui risultati tradizionali che con un box pubblicitario ad hoc direttamente sulle SERP. I risultati parlano di una risposta 10 volte superiore alle campagne precedenti: fosse anche il doppio, sarebbe già un’enormità.

Il traffico impazzisce? Questione di fortuna

Effetto StumbleUpon sulle statistiche di Pollicinor

L’immagine qui sopra, che molti riconosceranno come tratta da Google Analytics, rappresenta una curiosa storia di ordinaria follia Web-analitica. La linea blu rappresenta i visitatori di circa un mese di Pollicinor, il tumblelog che è nato a fine giugno 2007 come spazio per raccogliere annotazioni, foto, video e link interessanti che non trovano spazio su blog più “formali” come .commEurope. Un sito-bonsai che, negli ultimi mesi, ha avuto un traffico di un centinaio di visitatori unici quotidiani, cui vanno aggiunti i lettori via Feedburner (circa una cinquantina) e quelli via dashboard di Tumblr (un’ulteriore cinquantina).

Numeri onesti per uno spazio senza alcuna pretesa. Numeri “gonfiati”, la prima volta, ad inizio aprile (vedi bubble sul grafico), per la ri-pubblicazione dell’ormai celebre video di Luca Luciani, citata su Wikio. Numeri “impazziti”, a metà aprile, per la ri-pubblicazione di un divertente (ma dagli esiti seri) diagramma di flusso per decidere se e quando forwardare e-mail a catena, ripreso da un utente italiano su StumbleUpon. Una segnalazione che ha generato una girandola infinita di citazioni sulla piattaforma stessa, che ha raccolto anche le centinaia di commenti che comunque non sarebbero potuti essere inseriti sul tumblelog.

L’effetto è stato un incremento dei visitatori sino a 14.000 al giorno ed una stabilizzazione tra i 3.000 e i 5.000 utenti unici giornalieri. Qualcosa di simile, sebbene in miniatura, a ciò che è successo ad Alberto Falossi il giorno in cui, come racconta Luca Conti, ha avuto la prontezza di riflessi di rilanciare sul suo blog la notizia, letta da un quotidiano gratuito, dell’ormai nota pubblicazione in Rete delle dichiarazioni dei redditi 2005. Un botto, stavolta, fatto esclusivamente di utenti italiani e soprattutto compiuto nel più classico dei modi: grazie alla presenza temporanea al primo posto dei risultati di una ricerca su Google.

Prima il mini-picco di Luca Luciani via Wikio, poi il picco via StumbleUpon, poi il super-picco sulle dichiarazioni dei redditi via Google. Strumenti diversi ed utilizzati in maniera ancora maggiore di quanto previsto: tutti ottimizzano il traffico per il principale motore di ricerca, ma forse è arrivato il tempo di conoscere meglio anche strumenti che non abbiano i limiti intrinseci di un Technorati qualsiasi, ma che supportano bene gli utenti in ciò che amano di più: trovare informazioni interessanti nel momento giusto. Come fare ad intercettarli? Questione di fortuna, visto che nessun SEO potrà mai scrivere ciò che è di competenza dell’autore.

Cosa hanno cercato i lettori di .commEurope nel 2007?

Una volta avviato il consolidamento degli archivi di .commEurope su WordPress lo scorso giugno, dal 1° luglio 2007 si è iniziato a monitorare il traffico sul blog tramite Google Analytics: una scelta quasi obbligata, vista la predominanza che ormai Google presenta nella nostra vita in Rete. Si tratta di una piattaforma interessante, che offre ottime funzionalità di reportistica; peccato solo per il drastico calo nella qualità delle esportazioni visto negli ultimi mesi. Google Analytics permette di ottenere spunti interessanti per marketer, webmaster e blogger: proviamo perciò a sfruttare una briciolina delle sue potenzialità per raccontare qualcosa di più sui lettori saltuari di .commEurope. Su quelli affezionati, c’è poco da dire: sono pazzi e basta.

In maniera simile a quanto avviene in altre analisi, anche nel .commEurope Zeitgeist vengono analizzate le chiavi di ricerca con cui gli utenti dei vari search engine accedono a questo blog. Come al solito è Google a farla da padrone e l’iniziativa stessa è un chiaro plagio del Google Zeitgeist italiano: periodicamente verranno rilevate le ricerche più significative e periodicamente verrà aggiornata la “Top 20” storica. In ogni lista, il tutto viene pesato in termini proporzionali rispetto alla chiave “capoclassifica”: l’obiettivo, ovviamente, è evitare che il numero assoluto di ricerche oscuri il loro peso rispetto al complesso degli accessi a .commEurope. Si tratta comunque di una goccia rispetto al totale delle ricerche, misurabili in circa un migliaio di nuove query ogni mese.

Ma quali sono i primi risultati, relativi alla seconda metà del 2007? Sicuramente una grande attenzione ai grandi marchi: Barilla, KFC, Fiat, Perfetti, Capitalia, Wind ed UBI sono state tra le aziende più ricercate. Curiosa, in particolare, la situazione di quest’ultimo Gruppo finanziario: soprattutto negli ultimi mesi del 2007, la chiave di ricerca «Qui BPU» ha sommato centinaia di richieste e centinaia di accessi. Risultato quantomeno bizzarro, visto che l’home banking in questione non esiste più, essendo stato rinominato Qui UBI (in maniera coerente con la nuova brand identity del Gruppo UBI). Tanta attenzione “fuori sincrono” anche per Capitalia: proprio nei mesi in cui il Gruppo romano veniva incorporato in UniCredit, su .commEurope impazzava la query «logo Capitalia».

Il vincitore assoluto, comunque, è TodoMondo, cui era stato dedicato un articolo ai tempi dell’apertura, nel 2005: sommando le ricerche «Avitour Srl», «TodoMondo», «Todo Mondo», «Avitour», si ottiene il risultato più significativo. Se si guardano i singoli mesi, invece, tanta attenzione ai temi caldi di volta in volta affrontati: verso la Fiat Grande Punto a luglio o sulla crisi di Mattel a settembre, ad esempio, ma anche verso Barilla Alixir a novembre. Ultimo rilievo, invece, per le ricerche nominative: in questi mesi sono fioccate le ricerche relative a personaggi noti come Tom Mockridge, Eleonora Berlusconi o Nichi Grauso, ma anche meno conosciuti come la giornalista Laura Piccinini. Nella Top 20, rimane solo una ricerca, veramente incomprensibile: «come cambia arredamento retail», ripetuta decina di volte. Chi sa la risposta?

Google Android e il concorso impossibile (per gli italiani)

Con il lancio della piattaforma Android si può dire che Google abbia ancora una volta sparigliato un mercato importante, ma non suo: come era avvenuto con l’intermediazione pubblicitaria (vedi il sistema AdSense & AdWords), con lo sviluppo software (vedi Google Web Toolkit) o con la condivisione di contenuti multimediali (vedi Google Video e YouTube), ha lanciato il guanto di sfida ad un settore diverso da quelli in cui ormai è leader consolidata, sicura di diventarlo presto anche in questo. L’approccio, bisogna dire, stavolta è molto aperto: Android vuole diventare lo standard di settore in termini di sistemi operativi per sistemi mobile e per arrivare a questo fine Google ha fatto la saggia scelta di allearsi con i protagonisti del mercato verticale, piuttosto che sviluppare tutto in casa, sotto il proprio marchio.

Tutti sanno, d’altronde, che il redditizio mondo della comunicazione via cellulare riesce a regalare soldi e gloria ad una messe di soggetti diversi: dai produttori di terminali agli operatori telefonici, dai gestori di servizi VAS ai creatori di software. Google cerca di mettere d’accordo tutti, proponendo di alzare l’asticella collettiva: i terminali che vorranno utilizzare le opportunità aperte da Android, ad esempio, dovranno essere obbligatoriamente dotati di videocamera, Wi-fi e GPS.  I produttori di hardware più smart hanno capito l’antifona e si sono adeguati: esclusi Nokia e SonyEricsson, troppo intenti a cercare di imporre i propri standard, tutti i maggiori player del settore hanno annunciato la propria adesione allo sviluppo della piattaforma.

Non fare parte della congrega, d’altra parte, implicherebbe anche l’essere estromessi dall’enorme fascio di luce (più che positivo) che i media stanno puntando sull’iniziativa. Google ha saputo prima alimentare la crescita delle attese sul tanto citato GPhone, concorrente naturale dell’iPhone di Apple; poi ha svelato di non voler entrare direttamente nell’agone, scegliendo una strada diametralmente opposta a quella di Microsoft, che nel frattempo investe soldi e tempo per sviluppare il mondo proprietario di Windows Mobile. Gli sviluppatori vivono così le possibilità aperte dalla piattaforma in maniera decisamente più passionale: Android si basa su tecnologie come Linux e Java ed avrà uno sviluppo open source.

La saggia idea di lanciare premi per un totale di 10 milioni di dollari, poi, ha definitivamente acceso l’entusiasmo internazionale; ne rimane preoccupantemente fuori l’Italia, terra in cui i concorsi ad ampio budget vengono gestiti in maniera un po’ troppo monopolistica da parte dello Stato. Mentre c’è chi, come Stefano Quintarelli, offre di finanziare aziende innovative da trapiantare in terra estera, la Rete discute ferventemente sulle ricadute della nuova trovata della grande G. Ancora una volta, un buon colpo di immagine per Google, in cambio di una manciata di milioni di dollari: noccioline, per l’azienda che ha cambiato il mondo ed ora ha intenzione di cambiare anche noi e il nostro modo di comunicare. E ci riuscirà.

Un duro giudizio sulla pubblicità nei motori di ricerca

Leggete con attenzione questo estratto da un articolo scientifico, ne vale la pena…

«Currently, the predominant business model for commercial search engines is advertising. The goals of the advertising business model do not always correspond to providing quality search to users. For example, in our prototype search engine one of the top results for cellular phone is “The Effect of Cellular Phone Use Upon Driver Attention”, a study which explains in great detail the distractions and risk associated with conversing on a cell phone while driving. This search result came up first because of its high importance as judged by the PageRank algorithm, an approximation of citation importance on the web [Page, 98]. It is clear that a search engine which was taking money for showing cellular phone ads would have difficulty justifying the page that our system returned to its paying advertisers. For this type of reason and historical experience with other media [Bagdikian 83], we expect that advertising funded search engines will be inherently biased towards the advertisers and away from the needs of the consumers.Since it is very difficult even for experts to evaluate search engines, search engine bias is particularly insidious. A good example was OpenText, which was reported to be selling companies the right to be listed at the top of the search results for particular queries [Marchiori 97]. This type of bias is much more insidious than advertising, because it is not clear who “deserves” to be there, and who is willing to pay money to be listed. This business model resulted in an uproar, and OpenText has ceased to be a viable search engine. But less blatant bias are likely to be tolerated by the market. For example, a search engine could add a small factor to search results from “friendly” companies, and subtract a factor from results from competitors. This type of bias is very difficult to detect but could still have a significant effect on the market. Furthermore, advertising income often provides an incentive to provide poor quality search results. For example, we noticed a major search engine would not return a large airline’s homepage when the airline’s name was given as a query. It so happened that the airline had placed an expensive ad, linked to the query that was its name. A better search engine would not have required this ad, and possibly resulted in the loss of the revenue from the airline to the search engine. In general, it could be argued from the consumer point of view that the better the search engine is, the fewer advertisements will be needed for the consumer to find what they want. This of course erodes the advertising supported business model of the existing search engines. However, there will always be money from advertisers who want a customer to switch products, or have something that is genuinely new. But we believe the issue of advertising causes enough mixed incentives that it is crucial to have a competitive search engine that is transparent and in the academic realm.»

L’articolo si chiama The Anatomy of a Large-Scale Hypertextual Web Search Engine ed è evidente come non sia aggiornatissimo: in effetti ha quasi una decina di anni. Ciò che è meno ovvio è che gli autori del paper sono Sergey Brin e Lawrence Page, conosciuti da tutti come i fondatori di Google. Sorprendono, perciò, alcuni passaggi come quelli delle ultime righe: i futuri miliardari sembravano sostenere la necessità di un motore di ricerca che rimanesse nel dominio accademico, scevro dalle problematiche sottese alla potenziali influenze della pubblicità rispetto alla pulizia dei risultati.

Quando quest’articolo fu linkato la prima volta su .commEurope, nel 2004, i paradossi contenuti in questo estratto non erano ancora così evidenti: Google non era ancora quotata in Borsa ed AdWords iniziava a macinare fatturato, ma tutto sommato la big picture non era così coinvolgente come oggi. Oggi una sostanziale parte dell’economia della Rete si basa sull’infrastruttura pubblicitaria di Google: un sistema progettato e realizzato maledettamente bene, esattamente come lo è stato il motore di ricerca iniziale; peccato che le persone che negli anni hanno iniziato a venderne la pubblicità non sempre si siano dimostrate all’altezza.

E alla fine vinse il Web 1.5

Quando l’hype sul Web (presunto) 2.0 ha iniziato a montare, molti in Europa si illudevano che questa nuova ondata di entusiasmo ed opportunità avrebbe potuto vedere il vecchio continente tra i protagonisti. Sogno realistico: markettari, sviluppatori e manager europei non sono meno “creativi” di quelli di Oltreoceano. Lo scoppio della grande bolla aveva già mietuto vittime illustri: chi non ricorda belle favole come quella di Tiscali? Un tempo il Gruppo era presente in decine di paesi, ora è limitato a pochissime realtà, a causa delle vendite che si sono rese necessarie per sostenere i debiti contratti nei tempi (anch’essi presunti) d’oro.

Il fantasmagorico mondo del Web 2.0 sembrava inizialmente connotato da un diffuso uso del crowdsourcing: un ottimo modo per abbattere la necessità di impiegare decine di persone anche solo per lo startup. La rivincita del garage: una bella idea, un team di sviluppatori ambiziosi, una connessione capiente. Poi ci si è resi conto che la connessione, visto il tipo di applicazioni (spesso audio, video, foto), doveva essere ben più che capiente; allo stesso modo si è capito che la capacità dei server che ospita le ambiziose applicazioni di nuova generazione dovesse essere misurato in Terabyte (e non solo di spazio su disco). Ciò che non si è speso in risorse umane, insomma, si è iniziato a spenderlo in tecnologia.

Era evidente che i grandi player internazionali, quelli nati o rinati dalle ceneri della prima bolla e progressivamente affermatisi come leader della nuova ondata, si facessero avanti con poderose stampelle: Google è il caso più evidente, ma è solo la base dell’iceberg. Pochi sono sopravvissuti alla prima bolla così com’erano; molti sono i soggetti che si sono evoluti (vedi Yahoo!) e molti sono gli attori nati nell’interludio che hanno creato le basi per la nuova ondata di start-up ed ora come tanti Conti Ugolino divorano queste creature che tanto hanno dato al buzz intorno al Web 2.0. Come dire, il Web 1.5, quello nato post-bolla, sta ormai inglobando le vere punte di diamante di ciò che è innovativo e vincente sul mercato.

Cosa resterà, una volta finito il processo di consolidamento ed esplosa la bolla 2.0? Ad esempio, tanto per riprendere il link proposto ieri da dot-coma, la gioia e la sorpresa di leggere il blog di Marc Andreessen (sì, proprio QUEL Marc Andreessen) che si presenta come un navigatore qualsiasi… Oppure piccole chicche come il Brilliant Button Maker di Luca Zappa, un programmatore di Reply che con la sua idea, in pochi mesi, ha regalato oltre 4 milioni di immaginette ai suoi utenti. Tutto ciò che di bello vi viene in mente e che abitualmente collegate all’idea di Web 2.0, invece, presto finirà nelle mani di aziende più grosse e bisognose di innovazione: d’altra parte molti progetti sono ancora in Beta, si troveranno bene nel mondo dei perpetual beta di Google e soci.

Spettacolarizzare fa male (ma a volte è utile)

Fa cadere definitivamente le braccia la notizia che le forze dell’ordine abbiano assaltato gli uffici di Google Italia per una perquisizione che è solo il primo passo di una più ampia offensiva verso il Gruppo di origine statunitense. Lo step successivo, cioè l’aver messo sotto accusa due responsabili statunitensi delle attività italiane, è una conseguenza nefasta quanto surreale: è come se un uomo salisse sul ponte di una nave e si vantasse di aver stuprato un’impiegata del porto ed i poliziotti rincorressero i padroni della compagnia di navigazione (straniera) perché hanno permesso all’uomo di vantarsi pubblicamente del turpe gesto.

Da questa logica, è evidente, non se ne esce più: si confondono cause ed effetti, si mescolano protagonisti e responsabili. Se lo stupratore ha voluto pavoneggiarsi, il poliziotto furbo ne deve approfittare per fermarlo, verificare lo svolgimento dei fatti e permettere ai giudici di punirlo. Se il poliziotto preferisce far abbattere la nave, ha distrutto Sansone con tutti i filistei: nessuno potrà più utilizzarla per attraversare il mare e tutti dovranno soffrire per colpa di chi ha commesso un reato al porto. Quale sarà il vantaggio per la comunità nel bloccare la nave? Come avrebbero potuto i suoi proprietari bloccare a priori la salita a bordo del malvivente?

Sempre in termini di metafore, Beppe Caravita ha commentato l’accanimento contro Google sottolineando come l’attenzione deve essere posta alla “febbre” della società civile, piuttosto che agli strumenti di comunicazione che permettono di testarla. Se i ragazzini italiani sono in preda ad un delirio collettivo di onnipotenza, sarebbe meglio prestare loro attenzione piuttosto che indignarsi a posteriori del fatto che si vantino delle proprie malefatte. Internet è utile e lo sarà sempre più in futuro proprio perché sarà il luogo di elezione per “incontrare” persone di tutte le età, giovani in primis, ma ciò che serve è comprenderne il linguaggio, non lo strumento utilizzato.

Da notare infatti che lo spettacolarizzare gli eventi drammatici è una tendenza che va al di là della Rete: recentemente Le Iene su Italia Uno hanno denunciato il notevole spaccio di droga tra i ragazzi ospiti di Arezzo Wave e rapidamente la ventennale manifestazione ha cambiato sede, nome e dimensioni per le prossime edizioni. Gridare cose sgradevoli in maniera spettacolare insomma a volte serve alla società, anche se chi lo fa magari ha altri intenti. Si ottengono con questo metodo più risultati che attraverso il lavoro giornalistico tradizionale: nel bene e nel male, un servizio de Le Iene riceve più attenzione di un dossier di Report proprio per il suo linguaggio giovanilistico. In fin dei conti è meglio spettacolarizzare un po’ piuttosto che lasciare crimini impuniti.

Lavori di massa e marketing low cost

Forse non è stata esattamente un’idea brillante, per Google, seminare qualche notizia a proposito del sistema di analisi dei suoni: per quanto possano fare piacere ai tecnofili, le informazioni diffuse rischiano di allarmare il mercato di massa, che ormai guarda con sempre più diffidenza al Gigante (ex?) buono. Il progetto è affascinante, ed è evidente che da un lato contribuirà ad aumentare in maniera inverosimile le informazioni trasmesse sulla Rete (per la gioia di chi si occupa di Net Neutrality), dall’altro potrebbe segnare uno step importante nel marketing interattivo. Sarebbe interessante, soprattutto, comprenderne le implicazioni sui programmi user – centrici stile AdWords.

Dal punto di vista tecnico, in ogni caso, si tratta di trattare una mole di dati, per di più multimediali, in maniera il più possibile efficiente: vista l’alta capacità degli ingegneri di Google, c’è da essere sicuri che nuovi algoritmi vedranno la luce e si integreranno alla perfezione col resto delle utilities Googliane. Tuttavia, come unico neo, è possibile un rischio – qualità: se i servizi eternamente in Beta riescono a migliorarsi di continuo grazie all’utilizzo dei Clienti finali, è difficile immaginare un beta – testing volontario di un simile data mining a scopi pubblicitari. Ecco un caso in cui, forse, il tipico crowdsourcing di Google rischia di non funzionare.

Il modello, a ben vedere, è ben lungi dall’essere abbandonato: l’ultima iniziativa lanciata, non a caso, è uno dei casi più espliciti di utilizzo dell’intelligenza diffusa per migliorare la qualità dei prodotti di Google. Si tratta di Google Image Labeler, edizione riveduta e corretta dell’ormai storico ESP Game, sistema dalle origini universitarie nato per matchare in maniera qualitativamente elevata immagini e tag. L’idea geniale probabilmente non sta solo nell’utilizzare il tempo degli aficionados di Google, ma soprattutto di giustificare il tempo speso on line trasformando l’etichettatura in un “avvincente” (…) gioco a tempo, uno – contro – uno.

Unica critica che si può muovere di fronte ad Image Labeler, forse, è l’essere nata come iniziativa per i soli utenti di lingua inglese: infatti, proprio perché c’è da scommettere che gli algoritmi di Google basati sulla sua linguamadre siano più raffinati, sarebbe stato importante utilizzare tempo e skills dei navigatori di tutto il mondo per migliorare le ricerche nelle proprie lingue. Non a caso, una delle iniziative più raffinate di Google è stata proprio Google Translations, che spesso è riuscita a localizzare in tempi record i prodotti di Google, grazie al lavoro di gente nativa dei mercati di destinazione, ancora una volta gratuito. Chi vuole guadagnare qualche centesimo, al massimo, si rivolga ad Amazon

Piccolo è bello

Dopo qualche incertezza iniziale, anche le versioni localizzate per l’Europa di GMail Clips, il sistemino basato su RSS che propone microcontenuti random “per togliere la noia” durante la lettura della posta, sembra essere a regime: le notizie sono spesso interessanti o utili. La palma dei contenuti più curiosi va alle “Informazioni sul riciclaggio” (carta, plastica e non solo) che appaiono all’interno del Cestino.

Non è la prima e non sarà di certo l’ultima applicazione che si basa sui micro-contenuti che media grandi e piccoli dispensano via feed RSS: basterebbe dare un’occhiata a prodotti Java come RSS News Reader (anche in versione italiana) per comprendere come due righe di testo possano riassumere qualsivoglia notizia in maniera sovente efficace, ma sempre efficiente.

Il tempo è la risorsa critica per molti di noi e non sempre un articolo di un quotidiano o un servizio televisivo garantiscono un valore aggiunto superiore ad un dispaccio di agenzia, magari concentrato in poche righe: si spiega così il successo dei servizi informativi via SMS Premium o dello stesso Google News, che per molti è la chiave di accesso al mondo delle agenzie prima ancora che a quello dei media mainstream.

A questi ultimi, evidentemente, spetta il ruolo di garantire approfondimenti di qualità sui canali tradizionali e, onde salvaguardare il conto economico, di proporsi come fornitori di informazioni “brevi” sugli strumenti wireless. Quello che rimane un po’ più misterioso è il destino dei giornalisti: sempre e solo garanti dell’approfondimento oppure, ove necessario, nuovi specialisti dei micro-contenuti?