Page e Brin si mettono in salvo dai Terminator

Quando giungerà l'ora dei Terminator, i fondatori di Google saranno risparmiati: Larry Page e Sergey Brin si salveranno grazie al file "killer-robots.txt".
Page e Brin si mettono in salvo dai Terminator
Quando giungerà l'ora dei Terminator, i fondatori di Google saranno risparmiati: Larry Page e Sergey Brin si salveranno grazie al file "killer-robots.txt".

Le macchine emersero dalle ceneri dell’incendio nucleare. La loro guerra per sterminare il genere umano aveva infuriato per anni e anni. Ma la battaglia finale non si sarebbe combattuta nel futuro: sarebbe stata combattuta qui, nel nostro presente… Oggi.

Così si apre Terminator, film cult del 1984 che ha consacrato Arnold Schwarzenegger nell’olimpo di Hollywood. Nella trama la minaccia di un’invasione robot in conseguenza ad una devastante guerra nucleare. Tutto frutto della fantasia di James Cameron? No, almeno secondo Google: i due fondatori del motore di ricerca, Larry Page e Sergey Brin, hanno infatti preso le dovute precauzione per sopravvivere allo sterminio.

È ovviamente di un divertente easter egg, in pieno stile bigG, studiato per celebrare i vent’anni di vita del robots.txt. Per chi non ne fosse a conoscenza, si tratta di un protocollo di esclusione, ovvero un file che indica ai crawler dei motori di ricerca di non analizzare ed indicizzare specifiche pagine di un sito Web. Il suo primo impiego risale al giugno 1994 e, sebbene non sia mai stato tradotto in un vero e proprio standard, sia Google che gli altri protagonisti di questo settore (Bing, Yahoo! ecc.) ne hanno sempre rispettato le direttive, facilitando così la vita all’intera community di webmaster. L’omaggio del gruppo di Mountain View è costituito da un semplice file, accessibile all’indirizzo google.com/killer-robots.txt. Ecco il contenuto.

User-Agent: T-1000
User-Agent: T-800
Disallow: /+LarryPage
Disallow: /+SergeyBrin

Le quattro righe sono di facile comprensione per tutti coloro che hanno a che fare con la gestione di un sito, mentre agli altri tornerà utile qualche chiarimento. Il campo “User-Agent” permette di indicare i robot chiamati ad attenersi alle istruzioni, mentre “Disallow” consente di specificare quali URL escludere dall’indicizzazione o, in questo caso, dallo sterminio. Per fare un esempio, con il codice seguente si evita l’inclusione in tutti i motori di ricerca dell’intero portale.

User-agent: *
Disallow: /

Infine, T-1000 è il prototipo di robot assassino protagonista nelle seconda pellicola della serie, al servizio di Skynet, in grado di assumere qualsiasi forme e aspetto grazie alla sua lega polimetallico-mimetica. T-800 è invece realizzato con tessuti umani, il primo definibile un cyborg a tutti gli effetti.

Ti consigliamo anche

Link copiato negli appunti