jump to navigation

L’evoluzione dei motori di ricerca lunedì 6 febbraio 2012

Posted by andy in Internet e società, tecnologia.
Tags: , , , ,
add a comment

Oggi nasce un nuovo motore di ricerca: Volunia, dopo una ragionevole gestazione.

Parto di una mente italiana (la medesima che ha ideato il cuore di Google), il suo obiettivo è quello di stare al passo con i tempi.

E questo mi ha portato a riguardare indietro, ai primi grandi motori di ricerca su Internet, ad Altavista

E ripercorrendo con il pensiero questi ultimi anni ho razionalizzato quella che è la sostanza dell’evoluzione della tecnologia alla base dei motori di ricerca:

  • i primi motori di ricerca erano content-based: il loro scopo era quello di indicizzare i contenuti e di fornire dei rimandi a tutte le pagine che contenevano le parole chiave ricercate;
  • con il tempo si è puntato anche a migliorare la qualità della comprensione, da parte del motore, delle parole chiave, puntando anche a comprendere (per quanto possibile) anche interrogazioni in linguaggio naturale;
  • ulteriore passo: si è dato valore alle relazioni ed ai link (in sostanza, quanto i contenuti risultavano ‘gettonati’), ed i motori hanno iniziato a fare del ‘ranking‘ evoluto, e quindi non solo a dire quali pagine contengono più parole chiave, ma quali sono le pagine di qualità superiore, ovverosia quelle più visitate e quindi ritenute più autorevoli;
  • a corredo, oltre che all’indicizzazione dei contenuti, si è iniziato ad indicizzare anche le immagini ed i contenuti multimediali, offrendo anche meccanismi di base per effettuare ricerche non solo per parole chiave ma anche per analogia;
  • siamo al terzo step: il motore di ricerca diventa ‘social’, proprio come il nuovo Volunia; il web diventa social? Ed il motore di ricerca diventa user-centrico;

…e lungo tutto questo percorso si è sempre parlato del web semantico, cercando anche di farsi aiutare da una migliore strutturazione del linguaggio HTML, passato attraverso varie versioni, ed infine attraverso XML; un’utopia? Certamente no, ma prematura rispetto alle attuali potenzialità della Rete (per quanto incredibili esse già siano).

E come sarà la prossima generazione di motori di ricerca?

Nella mia visione, la prossima generazione di motori di ricerca si baserà su paradigmi distribuite, basati su tecnologie P2P.

Non sto inventando l’acqua calda, o almeno non oggi: ho iniziato a formarmi questa idea già anni fa, e forse se ne trova traccia in qualche mio vecchio post.

La cosa interessante è che tecnologie di questo tipo sono già in fase di sviluppo, ed alcune sono anche già state rilasciate.

Ma perché il futuro dei motori di ricerca dovrebbe essere basato su tecnologie di questo genere?

Ritengo principalmente per due motivi:

  1. i netizen iniziano a rendersi conto di quante informazioni su di se circolano in Rete senza il proprio controllo, e diventano sempre più attendi alla propria privacy;
  2. la quantità di informazione presente in Rete cresce ad una velocità vertiginosa, con la conseguente necessità di far crescere di pari passo la ‘dimensione’ dei motori di ricerca, con le relative implicazioni di infrastruttura, costi, consumi, impatto ambientale, rischi …

Tutto sommato un sistema di indicizzazione e di ricerca distribuito (ed in qualche modo localizzato con i dati da indicizzare) avrebbe il vantaggio di ridurre la quantità di informazione duplicata, distribuendo e delegando costi ed infrastrutture ai proprietari dei dati, e di lasciare al proprietario degli stessi (e dei relativi indici) il controllo sugli stessi.

Cacciatori di P2P ed il Subdolo Condivisore lunedì 12 aprile 2010

Posted by andy in Come sarebbe il mondo ..., Internet e società.
Tags: , , , , ,
1 comment so far

Sono anni che le major danno la caccia ai condivisori di materiale protetto da diritto d’autore.

Spiando la Rete, utilizzando anche pratiche poco ortodosse, stanno approdando in questi anni alla repressione normativa della condivisione (vedi la Dottrina Sarkozy, il recente Digital Econmy Bill britannico, etc.).

Spesso le major si appoggiano a società specializzate nell’identificazione dei condivisori.

Lo scopo di questi ‘cacciatori di condivisione illecita’ è quello di identificare i condivisori, minacciare rappresaglie legali e chiedere risarcimenti.

Da buon avvocato del diavolo, mi è balenata in mente un’idea un po’ pazza …

Tanto per fare un esempio, supponiamo che il ‘cacciatore’ stia cercando tutte le condivisioni illecite del proprio file PIPPO.mp3.

Supponiamo ora che un Subdolo Condivisore crei un proprio file con lo stesso nome, e lo protegga con una licenza che ne consente la libera condivisione ma non lo scaricamento e la condivisione da parte di ‘cacciatori’, a meno del pagamento di pesanti royalties (tanto pesanti!).

Se il cacciatore, durante la caccia, prova a scaricare la versione di PIPPO.mp3 prodotta dal Subdolo Condivisore, si trova a commettere un reato a sua volta, e a dover rispondere di fronte alla legge dello scaricamento (e condivisione, che è implicita nel P2P) fatti.

Il mercato dell’usato mercoledì 14 ottobre 2009

Posted by andy in Internet e società.
Tags: , , , , , ,
add a comment

La lotta senza quartiere delle major verso la condivisione non controllata dei contenuti soggetti a copyright potrebbe (e a parer mio avrà) un effetto che è stato finora poco considerato, ma che potrebbe avere un effetto catastrofico sulle vendite.

L’aspetto in esame è quello del mercato dell’usato.

Recentemente legalizzato (in qualche modo) da una sentenza (credo americana), occorre che le major riconoscano ed accettino che può esistere e che è assolutamente legale un mercato dell’usato anche per i prodotti digitali.

Quello che valeva un tempo (e vale tutt’ora) per i dischi, i DVD ed i libri, è altresì valido per le licenze d’uso acquistate, per software, musica, video, testi digitali …

Se le major cercano di spremere troppo il mercato (cosa che di fatto stanno facendo)), si troveranno a dover affrontare un problema ben più grosso di quello di cercare di recuperare qualcosa dal circuito digitale: si scontreranno contro il fatto che potranno recuperare soldi soltanto dalla vendita del nuovo, mentre l’usato verrà liberamente (e legalmente) scambiato su Internet, per soldi o sottoforma di baratto.

Il limite di EBay, per cui può convenire comperare qualcosa il cui valore non giustifica neppure il costo di spedizione (e, perché no? anche il tempo di attesa della merce), è totalmente superato dallo scambio di licenze via Internet.

Il mercato dell’usato virtuale sta per aprire …
… a quando i saldi di fine stagione …?

Vendere qualità mercoledì 14 ottobre 2009

Posted by andy in Internet e società.
Tags: ,
add a comment

Continua il conflitto tra major ed il popolo della Rete sul problema della protezione del diritto d’autore.

Pare che non si riesca a trovare una mediazione tra l’utilizzo del DRM più restrittivo e la condivisione selvaggia.

Eppure una mediazione deve essere trovata, anche perché è da sciocchi non riconoscere che le tecnologie di condivisione saranno sempre più un elemento fondamentale per la circolazione dell’informazione nel futuro.

A parte l’ovvia riserva per qualsiasi diritto di sfruttamento commerciale, i detentori dei diritti potrebbero attribuire un valore proporzionale alla qualità della riproduzione.

Se osservate, la stragrande maggioranza di contenuti che circola, più o meno piratata, è disponibile in qualche formato compresso, rippato, o in altro modo ‘ritagliato’ (DVD a cui sono stati rimossi i contenuti aggiuntivi, le tracce audio in altre lingue, i sottotitoli, etc.), ma anche la carta e la stampa per i testi dei libri …

Occorre anche contare che il costo produzione e di ‘trasporto’ del prodotto sta tendendo sempre più a zero, con l’utente finale che paga connettività, CD, masterizzatore, stampa delle etichette, etc.

Personalmente immagino un modello in cui il costo per la riproduzione sia legato sia alla bit rate / risoluzione, sia alla quantità e qualità dei diritti che vengono concessi.

Si potrebbe quindi immaginare una distribuzione libera sotto certi livelli di qualità, che di fatto sono un efficacissimo canale di marketing.

Il diritto a riprodurre 1, 2, … infinite volte un’opera potrebbe essere compensato con una funzione che preveda sconti quantità, fino ad un importo massimo per la riproducibilità illimitata.

Perché questo approccio?
Ebbene, l’ormai pressoché infinita disponibilità di contenuti sta portando il mercato (nonché il tempo e le orecchie degli utenti!) a saturazione.
Non è possibile pensare di vendere infinite volte infinite cose; il budget (in termini di tempo e di denaro) del mercato non è infinito.

Sono convinto che gli utenti stiano recuperando con il tempo (e con la disponibilità di tecnologie di qualità a prezzi sempre inferiori) il piacere di ascoltare bene la musica e di vedere sul grande schermo e con un buon audio un film; anche leggere un libro ben rilegato dà un piacere che non trova equivalenti nella lettura online o nella stampa a casa o in ufficio.

La libera circolazione di prodotti di qualità ridotta potrebbe sostituire i vecchi trailer, promuovendo di fatto l’acquisto delle versioni di buona qualità da potersi gustare appieno, magari in compagnia (e con un bel cartoccio di popcorn in mano!).

L’altro aspetto interessante è che si tornerebbe a promuovere la qualità degli autori, in quanto sarebbero quelli più ‘gettonati’, soprattutto nelle versioni di qualità superiore.

Un nuovo passo verso il futuro del software venerdì 19 giugno 2009

Posted by andy in Futurologia, Internet e società.
Tags: , , , , , , ,
add a comment

Opera ha presentato il suo nuovo prodotto, che di speciale ha l’idea alla sua base.

Il browser diventa non più soltanto uno strumento per accedere al mondo, ma anche uno strumento per condividere con il mondo.

La novità sta nel fatto che l’utente torna ad essere al centro della gestione dei propri dati, sul proprio sistema, invece che appoggiarsi a strutture esterne che offrono mille vantaggi tecnologici ed un solo svantaggio: la totale perdita di riservatezza delle proprie informazioni.

È vero che ciò si può fare da sempre utilizzando software di ottima qualità, ma ciò veniva al prezzo del costo dell’installazione e della manutenzione di tanti pezzi di software diversi.

Tra le mie osservazioni e leggendo qua e la, i principali pro e contro che ho identificato sono:

Pro:

  • l’utente torna a controllare i propri dati, invece che consegnarli incondizionatamente a società ed da sistemi delocalizzati;
  • l’utente deve manutenere / aggiornare un solo programma (il browser), invece che la pletora di quelli necessari per offrire i medesimi servizi di Opera Unite;

Contro:

  • il sistema non funziona per i sistemi NAT’ati;
  • l’accesso dall’esterno ai dati è limitato dalla banda disponibile, che in generale è asimmetrica (ADSL), a sfavore del traffico in uscita;
  • l’accesso ai dati dall’esterno è possibile soltanto se il sistema è acceso: qualcuno ha fatto un semplice conto, rilevando che il costo per mantenere sempre acceso il proprio PC è superiore al canone per un virtual server ospitato da un ISP;
  • si apre un nuovo universo di rischi per la sicurezza, in quanto gli attaccanti ora potranno concentrarsi su un unico elemento che offre molte più funzionalità che in passato e, quel che è peggio, ora agisce anche da server.

Ciò nondimeno, è stata tracciata una nuova rotta, divergente rispetto a quella dei grandi fornitori di servizi (SaaS).

Un altro altro mattone fondamentale è stato quello dei servizi ospitati presso terzi (webmail, siti web, GoogleDocs, etc.), che hanno risolto in una volta i problemi di amministrazione e manutenzione dei sistemi, della conservazione dei dati e del consumo energetico.
La controparte è che il fornitore ‘possiede’ il mio account ed i miei dati, ed in generale si riserva il diritto di farci ciò che vuole (chi avesse dei dubbi può andare a leggersi un po’ di contratti di licenza).

Altra pietra miliare nell’evoluzione è quella del cloud computing che offre come aspetto più importante, a parer mio, la delocalizzazione dell’informazione; in tal modo elimina i costi di backup e fa tendere a zero il rischio di discontinuità nella disponibilità dell’informazione.
Il comportamento è un po’ simile a quello del nostro cervello, in cui l’informazione non viene legata ad un singolo neurone, ma è ‘spalmata’ un po’ ovunque, e grazie a ciò può essere recuperata anche a fronte di ‘guasti’ locali.

Il futuro a cui stiamo tendendo è la composizione di quanto sopra: il cloud computing ci garantirà ovunque la disponibilità delle nostre informazioni, ma queste saranno criptate (ovviamente soltanto quelle per cui ciò ha senso) in modo che siano protette come se risiedessero su un singolo server sotto il nostro totale controllo.

Ciò solleverà però un problema legato al modello di business: oggi Google & co. campano grazie al fatto che possono controllare la totalità delle informazioni che noi mettiamo in rete; l’approccio di cui ho parlato sopra escluderà da tale controllo tutte le informazioni che noi vorremo, e queste in generale sono quelle che valgono di più.

Probabilmente si arriverà ad un approccio collaborativo, in cui le proprie aree personali verranno condivise mediante P2P, ma criptate.

la disconnessione degli utenti: un’arma a doppio taglio giovedì 23 aprile 2009

Posted by andy in Internet e società.
Tags: , , , , , ,
add a comment

La Nuova Zelanda vuole l’implementazione della dottrina Sarkozy, ma si trova di fronte a nuovi problemi, ed ora temporeggia …

Cedere ad interessi privati una prerogativa dello stato può non pagare, alla lunga …

La disconnessione può essere un buon deterrente, ma può ritorcersi contro lo stato.

Dato il fatto che tutto lo scambio delle comunicazioni si sta convertendo dal cartaceo / televisivo all’elettronico / digitale, se lo stato consente la disconnessione di un utente, deve anche strutturarsi per dargli accesso in ogni caso a quanto gli è costituzionalmente dovuto: informazione, corrispondenza e comunicazioni.

Questo significa che sarà lo stato stesso che dovrà mantenere vivi servizi alternativi (e sempre più costosi) per assicurare al cittadino i suoi diritti.

Meditate, gente, meditate …

Fatta la legge, calato il traffico? martedì 7 aprile 2009

Posted by andy in Internet e società, privacy.
Tags: , ,
add a comment

La Svezia ha recepito fra le polemiche la direttiva europea IPRED.

Dal primo di aprile potrebbe bastare un indirizzo IP all’industria dei contenuti, potrebbe bastare una richiesta all’autorità giudiziaria per ottenere l’ordinanza con cui chiedere al provider di identificare l’abbonato. Rastrellamenti di dati nei circuiti del file sharing potrebbero sfociare in una gragnola di denunce o di richieste di risarcimento.

Sembra che il traffico rilevato dai fornitori di connettività sia sceso del 33% nel primo giorno di applicazione della legge.

Fatta la legge, calato il traffico, si potrebbe dire.

Ma la prova del nove sarà l’aumento degli incassi dell’industria dei contenuti: o aumenteranno, e questa sarà la riprova che questi galantuomini avevano ragione, oppure il loro fatturato rimarrà stazionario o in calo, con le seguenti due possibilità:
1) non dichiarano tutte le entrate, o
2) la gente comunque non avrà da spendere le montagne di soldi che questi signori hanno sempre ipotizzato esistere.

Staremo a vedere …

Esiste naturalmente la quarta delle tre possibilità, ovverosia che le cose non cambieranno, ed il P2P reagirà con appropriati anticorpi a questa intrusione privata nella privacy dei cittadini.

In ogni caso la cosa più interessante da verificare è se l’aver venduto la privacy dei cittadini all’industria dei contenuti porterà benefici o meno, e se si, a chi.

E quali danni.