My MEDIA

Osservatorio di Cultura Digitale
Subscribe

La ludoteca mediatica di Carlo Infante

12 Luglio, 2010 By: admin2 Category: Articoli

Uffizi “alla mano”, ma non per tutti

18 Aprile, 2010 By: admin2 Category: Articoli

uffizi_iphone

di Chiara Guizzetti

Ma quanto è “social” questo network?

Mi trovo davanti agli occhi due notizie riguardanti la politica espositiva degli Uffizi, uno tra i più importanti musei internazionali, che ha proposto un’applicazione scaricabile da App Store (anche gratuitamente entro il 3 Maggio) contenente la mappa, varie informazioni interessanti e molte delle foto delle opere esposte nella Galleria, per iPod touch, iPhone e iPad.

Un nuovo modo per attraversare la vera storia dell’arte attraverso un qualsiasi strumento tecnologico proposto dalla Apple.

A seguire vedo la seconda notizia pubblicata da un gruppo di protesta su FaceBook: il “percorso del principe”, noto anche come Corridoio Vasariano verrà aperto alle classi scolastiche, ma una disposizione europea decreta che questo percorso è gratuito solo per i ragazzi sotto i 18 anni nati e che risiedono in Italia o nella Comunità Europea, mentre per i ragazzi extracomunitari è prevista una quota di ingresso di 6,75 euro.

uffizi_facebook_gruppoprotesta

Vi pare che per fruire di un bene culturale così centrale nel nostro paese sia necessario avere uno specifico colore della pelle? E’ poi questo che vogliamo intendere per sviluppo sociale delle Nuove Tecnologie?

Seminario sulla Sicurezza Informatica a Cecina (LI)

16 Aprile, 2010 By: admin2 Category: Comunicazioni

sicurezzacecina

L’oggetto museale nell’era della contaminazione tecnologica

09 Marzo, 2010 By: admin2 Category: Comunicazioni

pinucci5

Per gentile concessione di Massimiliano Pinucci

Giovedì 18 Marzo 2010

Dalle ore 11.30 alle ore 13.30

presso la LIBERA ACCADEMIA DI BELLE ARTI

50126 Firenze – Piazza di Badia a Ripoli, 1/A

Incontro con Fabrizio Pecori – Direttore Responsabile di My MEDIA

dedicato a

L’oggetto museale nell’era della contaminazione tecnologica

Breve indagine sull’epistemologia dei reperti e dei musei nella società dell’informazione telematica

Seminario sulla Sicurezza Informatica a Montepulciano

19 Febbraio, 2010 By: admin2 Category: Comunicazioni

locandinamontepulciano

Il programma del Future Film Festival 2010

18 Gennaio, 2010 By: admin2 Category: Comunicazioni

fffprogramma2010

E’ on line il programma della dodicesima edizione del Future Film Festival

Future Film Festival XII – Future Reloaded

Bologna, 26-31 gennaio 2010

Sicurezza Informatica

26 Novembre, 2009 By: admin2 Category: Comunicazioni

A Monte San Savino si parla di Sicurezza dei Minori in Internet

sicurezzainformaticamssavino

L’utilizzo del computer e della rete Internet rappresenta al contempo “uno stile di pensiero”, una “modalità per comunicare e ricevere informazioni” ed una “palestra di cittadinanza” presente e futura.

Sempre più le transazioni con uffici privati e pubblici, le ricerche quotidiane e scolastiche, le richieste di documentazione, ecc… passano per l’uso della Rete.

La conoscenza informatica e la pratica quotidiana che direttamente ne conseguono offrono l’unica possibile alternativa al tanto temuto “digital divide” (il divario digitale), che condiziona le possibilità di sviluppo e di relazione tanto tra continenti e nazioni, che tra singoli individui all’interno di un medesimo contesto culturale.

Conoscere le peculiarità della comunicazione digitale è il primo passo per evitare forme evolute di analfabetismo di ritorno.

La Rete nasconde insidie, evidenzia possibilità inedite e talvolta pericolose. Tra i “netizen” (i nuovi cittadini della rete) è possibile incontrare la stessa variegata umanità che possiamo incontrare ogni giorno nel nostro vivere quotidiano e pubblico, di conseguenza ci potremmo avvantaggiare di splendide possibilità ed essere assediati da numerose insidie.

Ma paure non controllate che potrebbero indurci ad allontanare i nostri figli dalla Rete Sociale più grande del mondo non sono ammissibili e penalizzano troppo lo sviluppo cognitivo per poter rendere praticabili soluzioni estreme.

Scopo dell’incontro è quello di far prendere conoscenza a genitori e figli delle incredibili opportunità della navigazione Internet e delle necessarie sicurezze da adottare per allontanare insidie, pericoli e contaminazioni informatiche.

Utilizzare con competenza e precisione il computer e le opportunità offerte da Internet è un diritto/dovere dal quale i ragazzi del Nuovo Millennio non possono prescindere.

I contributi che caratterizzano questo incontro intendono fornire una conoscenza di base degli strumenti analitici e di quelli che possono aiutare a controllare le numerose insidie che rendono insicuro il cammino nella grande Rete di Internet da parte dei minori.

Relatori:

Prof. Iacopo Maccioni – Dirigente scolastico

Dott. Fabrizio Pecori – Psicopedagogista, Direttore Responsabile del periodico My MEDIA – Osservatorio di Cultura Digitale

Dott. Ing. Anna Liberatori – Coordinatore didattico Istituto Formazione Franchi

Giulio Luzzi – Responsabile didattico di Istituto Formazione Franchi

Iphone, il GPS e gli EXIF Metadata

24 Novembre, 2009 By: admin2 Category: Articoli

phon

Di Francesco Fumelli e Alessandro Furieri

Tutto quello che [inconsciamente] avreste sempre voluto sapere sui tag Jpeg-Exif ma che non avete mai osato chiedere [fino ad ora] …

iPhone e i tag di geoposizionamento

Uno degli aspetti innovativi di iPhone non è solo quello di avere – tra i primi device nel campo delle telefonia mobile – il sensore GPS integrato ma sopratutto (ed in questo è davvero unico, nell’attesa di Android di Google) in grado di rendere disponibili i dati di posizionamento rilevati dal GPS per tutte le altre applicazioni installate nel dispositivo.

Applicativi per iPhone come Twinkle e molte altre applicazioni di microblog e lifestream (e non solo) riescono – grazie a questa caratteristica – a  implementare servizi nuovi e utili. Mostrare dove si trovano i vari chatters intorno al mondo, posizionare le vostre foto sopra le mappe mondiali, vedere la posizione geografica dei vostri amici, condividere le immagini dei luoghi, realizzare e salvare mappe per definire percorsi, inviare via mail la propria posizione georeferenziata, ed altri mille utilizzi diversi, tutti più o meno utilili ma tutti molto “Web 2.0 oriented”.

Oggetto di questo articolo è il rapporto tra la rilevazione dei dati georeferenziati grazie al GPS e le immagini scattate dalla fotocamera di iPhone. Partiamo da una trattazione preliminare della fotocamera di iPhone.

È opinione corrente che le foto scattate con iPhone non siano eccezionali. Questa affermazione non è completamente vera, come tutti i possessori del telefono Apple sanno. Per spiegare meglio il discorso che è più complesso, occorre sgombrare il campo da alcuni miti che circondano il mondo della fotografia digitale, primo tra tutti quello dei megapixel.

Il numero dei megapixel di un’immagine non è sufficiente a definirne la qualità. Se è vero che ad un numero di pixel maggiori corrisponde certamente una maggiore quantità d’informazioni salvate, si devono considerare anche la qualità delle lenti, la qualità del sensore che cattura l’immagine e non ultimo, il software che gestisce l’acquisizione e soprattutto il livello di compressione operata in fase di salvataggio.

Tutte le fotocamere ed i telefoni di fascia medio bassa infatti utilizzano il formato JPG per salvare le immagini, ed applicano quindi in ogni caso una compressione all’immagine acquisita.

Accedendo a Flickr (http://www.locr.com) e cercando nella sua sconfinata banca dati (eseguire ricerca per fotocamera) le foto dei vari “iPhone user” nel mondo, appare evidente come le foto di iPhone siano tutt’altro che di cattiva qualità. Anche rispetto a molti dei cameraphone più blasonati come Nokia N95, iPhone (sulla carta molto inferiore come parte fotografica) alla fine restituisce un risultato senza dubbio comunque paragonabile.

Altro mito da sfatare è quello più in generale sulla qualità dei cosiddetti cameraphone. Telefoni con caratteristiche fotografiche che in realtà non si dimostrano quasi mai in grado di competere con una fotocamera digitale, neppure di fascia medio-bassa. Insomma per fare buone fotografie serve una vera fotocamera.

Iphone non rompe questa regola, possiede un sensore a 2 megapixel senza autofocus e senza flash. Caratteristiche molto “basiche”.

Quello che non sempre viene sottolineato è che comunque l’apertura del diaframma scelta dagli ingegneri Apple è di f/2,8 (un terzo della distanza focale) e che la lente è costruita con materiali di buona qualità.

f/2,8 è un valore ottimale per esaltare la luminosità (a scapito di una certa profondità di campo) e la qualità della lente garantisce una buona nitidezza e assenza di aberrazioni cromatiche.

La compressione operata sulle immagini dal software è evidente, ma migliore di quella che ad esempio generalmente opera il software Nokia di N95 e non si presentano i tipici artefatti di compressione (se non in condizioni di luce molto scarsa).

iPhone permette insomma di fare foto godibili ed equilibrate, nell’ottica di quello che ci si può aspettare da un cellulare. Lo zoom avrebbe migliorato le cose, ma nel poco spessore di iPhone non sarebbe stato possibile collocare il meccanismo di uno zoom ottico (si pensi che N95 usato come esempio è spesso più del doppio di iPhone). Il progetto Apple ha puntato su un buon compromesso: due megapixel, lente senza aberrazioni o disturbi evidenti, elevata luminosità per capacità di scatto anche in interni e con luce modesta.

E come accennato, la possibilità di salvare nelle immagini JPG acquisite, i tag di geoposizionamento, gli Exif metadata.

Exif metadata

Naturalmente è noto a tutti che il formato tipico per le foto digitali è il JPEG.

Questa è in realtà una mezza verità; in effetti il vero formato utilizzato per le foto digitali si chiama EXIF (o meglio JPEG/EXIF).

Un EXIF è a tutti gli effetti un normale JPEG, infatti qualsiasi programma di visualizzazione riesce a visualizzare sia i JPEG-base che i JPEG-EXIF senza doversi sobbarcare nessuno sforzo aggiuntivo. JPEG-EXIF contiene tuttavia molte informazioni extra che in un JPEG-base sono del tutto assenti.

Sia i JPEG-base che i JPEG-EXIF utilizzano come suffisso .jpg oppure .jpeg, senza ulteriori distinzioni. Anche il MIME-Type utilizzato è image/jpeg, in modo indifferenziato. Per riconoscere se un JPEG in effetti è un EXIF occorre leggere attentamente dentro al file.

Riassumendo, possiamo dire che:

un JPEG-base contiene semplicemente un’immagine compressa

un JPEG-EXIF contiene un’immagine compressa, ma in aggiunta contiene anche un set strutturato di metadati; ossia, sono presenti ulteriori informazioni relative all’immagine, alle condizioni di ripresa etc. etc.

Il seguente è un esempio abbastanza tipico della struttura dei metadati EXIF che accompagnano una fotografia digitale:

Come dovrebbe risultare chiaro dall’esempio, se un JPEG è in effetti un EXIF, allora contiene dei metadati strutturati in modo standard:

i metadati sono articolati in elementi (voci) denominati tag

ciascun tag è identificato da un ID numerico e da un nome simbolico

alcuni tipi di tag sono obbligatori (quindi li dovreste trovare sempre in qualsiasi EXIF)

altri tipi di tag sono facoltativi (quindi sono presenti o meno a seconda del modello della fotocamera, della modalità operativa, della presenza o meno di determinati accessori etc etc).

Lo standard è abbastanza semplice e in sostanza è coerente quanto basta per garantire una facile interoperabilità tra i diversi produttori di hardware e software.

In ogni caso, ciascun tipo di tag contiene uno o più valori; i tipi supportati sono i seguenti:

BYTE una sequenza di bytes

STRING una stringa di caratteri ASCII

SHORT un intero (senza segno) a 16 bit

LONG un intero (senza segno) a 32 bit

RATIONAL una coppia di interi (senza segno) a 32 bit interpretati come un rapporto tra numeratore e denominatore

SBYTE una sequenza di bytes (senza segno)

UNDEFINED una sequenza di bytes (forse UNICODE, ma non è detto …)

SSHORT un intero (con segno) a 16 bit

SLONG un intero (con segno) a 32 bit

SRATIONAL come un RATIONAL, ma la coppia è di interi (con segno) a 32 bit

FLOAT autoesplicativo, praticamente mai utilizzati

DOUBLE autoesplicativo, praticamente mai utilizzati

Ogni tag dichiara un valore count, che deve essere interpretato come segue:

se i valori sono BYTE, STRING, SBYTE oppure UNDEFINED, count indica la lunghezza della stringa

in tutti gli altri casi count indica il numero dei valori elementari presenti [quindi possono essere presenti tanto valori elementari come anche array di valori]

Il fatto di specifico interesse per questo articolo è che iPhone (e alcuni altri modelli di telefoni e fotocamere digitali) incorporano direttamente al loro interno un sensore GPS.

Altri modelli di fotocamera digitale supportano la possibilità di connettere un terminale GPS di tipo esterno tramite un apposito sistema basato su un cavetto ed un aggancio fisico.

In entrambi i casi il formato EXIF consente di memorizzare i parametri GPS rilevati al momento dello scatto direttamente all’interno dei metadati. In particolare:

i tag GPSLatitudeRef e GPSLatitude conterranno la latitudine [espressa nella forma Est/West gradi, minuti e secondi]

i tag GPSLongitudeRef e GPSLongitude conterranno la longitudine [espressa nella forma North/South gradi, minuti e secondi]

il tag GPSSatellites indicherà il numero dei satelliti visibili

i tag GPSDateStamp e GPSTimeStamp indicheranno l’esatto momento dello scatto [espresso in UTC, ossia nel tempo universale di Greenwich]. Di fatto i satelliti GPS erogano anche un segnale orario di precisione assoluta, per cui questo valore può essere di particolare interesse.

Come leggere e capire i tag JPG-EXIF

Esiste un software open source, scritto dal mio amico e coautore di questo testo Alessandro Furieri: Spatialite, è un software liberamente scaricabile da: www.gaia-gis.it/spatialite per tutte le piattaforme.

SpatiaLite consente di importare le immagini EXIF in modo semplice, alimentando nel contempo un catalogo dei metadati corrispondenti.

Una volta che i metadati sono stati acquisiti sotto forma di tavole diventa banale elaborarli/interrogarli tramite normalissime query SQL.

Non solo; se tra i metadati EXIF sono presenti anche le rilevazioni GPS, allora SpatiaLite è in grado di costruire automaticamente anche una Geometry WGS-84 associata alla fotografia (World Geodetic System).

Il modo più facile per importare immagini EXIF in SpatiaLite è quello di utilizzare l’interfaccia grafica; si può infatti importare automaticamente una intera cartella in un solo colpo. Un EXIF valido verrà correttamente riconosciuto anche se presenta un suffisso diverso da .JPG, oppure se non possiede nessun suffisso.

Quindi, utilizzando il tool standard di SpatiaLite per l’acquisizione automatica delle immagini EXIF avremo la seguente situazione:

La tavola ExifPhoto conterrà le informazioni maggiormente rilevanti, ivi compresi gli eventuali parametri GPS rilevati dai metadati EXIF.

Naturalmente ExifPhoto conterrà anche l’immagine vera e propria.

Se si desidera SpatiaLite può inoltre mostrare le tavole complete che espongono tutti i metadati EXIF; in questo caso la tavola ExifTags conterrà l’elenco di tutti i tags rilevati.

mentre la tavola ExifValues conterrà i valori associati ai tags EXIF rilevati.

infine, la vista ExifMetadata consente di accedere direttamente ai metadati EXIF in forma agevolata.

Oltre ad iPhone ed altri telefoni cellulari (principalmente Nokia) le macchine digitali dotate di sensore GPS cominciano ad essere reperibili sul mercato a prezzo non eccessivo. In particolare la Nikon Coolpix P6000 e la Ricoh 500 SE.

Si tratta di fotocamere compatte con ottime doti fotografiche per la fascia a cui appartengono (non professionale) con  prezzo intorno a 400/500 euro.

Inoltre praticamente tutte le reflex digitali di fascia alt  professionali consentono di collegare un terminale GPS esterno tramite un apposito cavetto e sistema di fissaggio.

Infine è possibile connettere una vasta gamma di terminali GPS di tipo professionale utilizzando sempre un cavetto, ma senza nessun vincolo fisico idoneo a garantire l’allineamento delle due apparecchiature.

Conclusioni

La presenza dei dati di posizione nelle immagini è una novità (ancora pochissimo sfruttata) che consente una diversa gestione nell’utilizzo quotidiano delle foto digitali. Permette di aggiungere intelligenza e funzioni ai software di archiviazione e gestione, sia sul pc locale dell’utilizzatore che su web, tramite siti e servizi appositi.

Software e servizi web interessanti da vedere, in ottica specifica per gestire le foto JPEG-EXIF (a parte il già citato Spatialite).

Flickr www.flickr.com

Forse il più noto sito di archiviazione/condivisione di immagini online, utilizza i tag EXIF per posizionare i vostri scatti sopra una mappa. Rende immediato il vedere ad esempio il percorso di un viaggio, con le relative immagini in posizione.

Google Picasa Web Album – picasaweb.google.com

Anche Picasa permette di archiviare le foto e posizionarle sulla mappa di Google. E’ in effetti il migliore concorrente di Flickr e ne duplica e espande le funzioni. Molto utile la mappa di un singolo “album” con le anteprime delle foto visibili direttamente nella mappa.

Lockr – www.locr.com

Sito web e software per Windows e Symbian, permette di caricare online immagini e posizionarle su Microsoft Virtual Hearth, Yahoo e Google Maps, leggendone i dati JPG-EXIF. Molto efficace e gradevole come interfaccia.

Exposure, Airme e Flickup

Software per iPhone scaricabili da iTunes store. Exposure e Airme sono gratuiti. Tutti e 3 permettono – tra l’altro – l’invio a Flickr, Picasa e Facebook di foto scattate con iPhone, mantenendone i tag Exif.

HoudahGeo – houdah.com/houdahGeo/index.html

Software per Mac OSX. Permette di collocare tramite i tag EXIF foto su Google Hearth e Google Maps.

PhotoInfoEditor e PhotoGPSEditor

http://www.mmisoftware.co.uk/pages/photogpseditor.html

Due software per Macintosh che permettono – tra l’altro – di gestire pienamente i tag EXIF e processarli anche su molti file in batch.

RapidoMap OSX www.app4mac.com

Ottimo software gratuito per gestire localmente le foto e sovrapporle alle mappe di Yahoo. Basta trascinare le foto sopra la finestra del programma. Veramente semplice e ben fatto. Permette anche l’upload su Flickr.

Nokia location tagger – www.nokia.com/betalabs/locationtagger

Permette di salvare i dati Exif all’interno degli scatti eseguiti con i telefoni Nokia dotati di GPS.

Un ottimo software per iPhone (gratuito) scaricabile da iTunes store è GPSLite. Si tratta di un programma non direttamente correlato con la problematica JPG-EXIF ma indispensabile per tutti coloro a cui interessi sfruttare e capire come funziona il GPS in genere e la sua implementazione su iPhone. Si tratta di un programma che rileva le coordinate, permette di conoscere direzione e velocità di movimento, salvare dei punti su una mappa “muta” e quindi navigare da e per i punti salvati con l’ausilo di una bussola che mostra la direzione da seguire.

[BOX]

Letture consigliate:

http://it.wikipedia.org/wiki/Exchangeable_image_file_format

http://www.kodak.com/global/plugins/acrobat/en/service/digCam/exifStandard2.pdf

http://cvs.horde.org/annotate.php/ansel/lib/Exif.php?rev=1.41

http://it.wikipedia.org/wiki/World_Geodetic_System

http://www.mmisoftware.co.uk/pages/photogpseditor.html

ACTION SHARING – ORCHESTRA MECCANICA MARINETTI

24 Novembre, 2009 By: admin2 Category: Articoli

motor

Di Fabrizio Pecori

Intervista a Simona Lodi e a Angelo Comino aka Motor

Fabrizio Pecori: Un artista, un ricercatore, un imprenditore, un economista: cosa hanno in comune, cosa condividono o possono condividere?

Simona Lodi: A prima vista sembrano mondi separati, ma in realtà hanno molto da comunicarsi.

Se osserviamo con cura il substrato sociale contemporaneo in cui tutti questi attori operano i punti in comune sono numerosi. La divisione tra arte e tecnologia è più un pregiudizio culturale che reale e sempre più difficile da sostenere. Il teatro, il cinema, la fotografia, la musica, ma anche la scrittura stessa hanno sempre instaurato un dialogo aperto con la tecnologia.

In fondo, per fare un esempio tra mille, cosa sarebbe stato della letteratura senza la tecnologia del libro? Vero è che la specializzazione degli studi artisti o scientifici ha creato spesso delle isole distanti tra loro, tra cui vorremmo gettare dei ponti.

Partendo da queste osservazioni è nata l’idea di Chiara Garibaldi e mia di creare una piattaforma di condivisione, ricerca e produzione tra arte, ricerca tecnico-scientifica e imprese, ovvero far nascere Action Sharing.

Action Sharing vuole proporre una nuova visione del rapporto tra arte, aziende altamente innovative e laboratori di ricerca sul territorio tra cultura umanista e tecnologia.

Ciò implica una visione nuova dell’arte anche come motore dell’innovazione e una nuova idea di mecenatismo.

I new media e il digitale, l’elettronica avanzata e Internet hanno modificato la creatività e le arti. Abbiamo ritenuto necessario, oltre che molto affascinante, esplorare questi territori.

Da questa necessità è nato Share Festival, un festival di arti e culture digitali, con l’intento di dare espressione a una scena emergente e di promuovere le suggestioni che le nuove tecnologie hanno portato alla riflessione artistica.

Dai momenti di approfondimento è nata l’esigenza di produrre e di far crescere sul territorio competenze e professionalità.

F.P.: Gli artisti multimediali arrivano a concepire e realizzare le proprie opere percorrendo strade inusuali. Questo percorso può essere di stimolo all’innovazione tecnologica?

S.L.: Lavorando con gli artisti digitali, abituati a operare in un ambiente altamente tecnologico, è emerso un nuovo interesse: quello della metodologia di ricerca. Io e Chiara ci siamo accorte che il percorso di ricerca degli artisti multimediali, per arrivare a realizzare le loro opere, è molto diverso, anche sovversivo, rispetto ai metodi tradizionali della ricerca accademica e industriale, ma è anche ricco di interessanti sviluppi legati all’innovazione tecnologica.

Allo stesso tempo molti artisti digitali non rifiutano affatto lo studio della tecnologia, ma spesso invece ne sono padroni, attraverso l’hacking o il reverse engineering.

Molti di loro non solo usano la tecnologia esistente, ma spesso creano quella a loro necessaria.

Tutto questo è ancora più significativo perché collocato in una città come Torino, una città che in questi anni ha cambiato volto, crescendo in modo parallelo ma altrettanto esplosivo su due fronti: quello dell’arte contemporanea e quello dell’industria ICT.

F.P.: Cosa è allora Action Sharing?

Per questo motivo, Piemonte Share ha scelto di lanciare il progetto Action Sharing: una piattaforma che ha lo scopo di favorire la ricerca sincretica. Non più il contrapporsi del campo scientifico tecnologico con quello umanistico, ma una loro collaborazione, allo scopo di trovare soluzioni pratiche e specifiche utilizzando assieme al metodo scientifico il metodo di ricerca dell’arte.

F.P.: Ciò implica la scoperta di nuovi luoghi dell’arte?

S.L.: Certamente. Gli artisti normalmente sono sui palchi, nei musei o nelle gallerie d’arte. Piemonte Share li pone nei centri di ricerca delle aziende e dell’università fianco a fianco degli ingegneri e degli informatici per costruire un percorso innovativo del tutto diverso dai percorsi tradizionali.

L’obiettivo è di realizzare opere collettive in cui le tecnologie digitali siano utilizzate in due direzioni: come linguaggio di espressione creativa, ma anche come stimolo per le aziende e per la ricerca a trovare delle soluzioni nuove e rivendibili, dove le tecnologie che ne derivano sono un readymade sul mercato vero e proprio.

Da non dimenticare inoltre come la creazione di una community creativa estesa, shared” appunto, composta dai vari attori possa diventare un valore a lungo termine in sé e per il territorio stesso.

Per questo la Camera di Commercio di Torino ha accolto la nostra proposta, diventando finanziatore del progetto e insieme è stata fatta una selezione da una rosa di progetti di artisti, tra cui è stato scelto il progetto pilota dell’iniziativa: l’Orchestra Meccanica Marinetti, dell’artista Angelo Comino in arte Motor.

F.P.:Perché Motor: artista e informatico?

S.L.: Motor è stato scelto principalmente per tre motivi: in quanto uno dei principali rappresentanti della scena artistica locale, per la sua esperienza ventennale nell’ambito degli spettacoli multimediali e per la sua grande competenza tecnica, fondamentale per portare a termine un progetto di questa complessità. L’opera infatti consiste in uno spettacolo multimediale, che registra la presenza di un’orchestra formata da robot percussionisti che suonano su bidoni industriali, e di cori digitali, guidati da un performer umano cablato: una sorta di Tambours du Bronx in stile cyborg!

F.P.: Motor, puoi parlarci degli aspetti più artistici del progetto?

Motor: Il mio lavoro si pone a metà tra la ricerca artistica e la ricerca tecnologica. Quello che mi interessa è esplorare questo confine: da un lato c’è la parte più umana di noi e dall’altro ci sono la tecnologia, le macchine, i computer, le logiche delle reti informatiche. Questi due aspetti non sono però separati e nessuno dei due è neutrale. La linea di confine è molto “blurrata e pone molte domande sulla nostra stessa identità.

Per fare un passo avanti nella ricerca, per uscire dal solipsismo del virtuale, per uscire dal monitor del computer era necessario muovere la materia, era necessario costruire delle macchine che avessero una fisicità forte, perchè questa si sarebbe confrontata con la fisicità degli umani.

Spesso la musica elettronica è in sostanza uno stream di dati digitali fino al momento in cui viene convertita in segnale audio e subito amplificata il più fedelmente possibile rispetto al suo fantasma digitale.

Io volevo macchine che spostassero l’aria.

Questo è uno dei motivi che mi ha portato ad immaginare l’Orchestra Meccanica Marinetti, un omaggio ironico, ma rispettoso al tempo stesso, per una scena artistica – il futurismo italiano – che aveva già individuato molti temi legati al rapporto uomo-macchina un secolo fa.

Un progetto come questo richiede anche di utilizzare strumenti nuovi, sia software che hardware: robot come questi non esistono sul mercato o i programmi per controllarli non erano stati ancora scritti. Per questo progetto è stato necessario radunare un bel po’ di persone attorno allo stesso tavolo e creare uno staff con tutte le competenze necessarie.

F.P.: Piattaforma di collaborazione: cosa vuol dire?

S.L.: Il concetto chiave per la realizzazione dell’Orchestra è stata proprio la collaborazione. Action Sharing ha avuto la funzione di mettere in contatto soggetti che normalmente non sono in relazione tra di loro.

Action Sharing ha creato e coordinato un team multidisciplinare per la realizzazione del progetto. L’Associazione Robotica Piemonte (di cui fanno parte le imprese che hanno contribuito alla realizzazione tecnica dello spettacolo Actua, Erxa, Prima Electronics) ha seguito la prima fase di progettazione dei robot.

Il Laboratorio Interdisciplinare di Meccatronica (LIM) del Politecnico di Torino, sotto la guida del professor Andrea Tonoli, ha poi effettivamente sviluppato e realizzato il progetto, attraverso le simulazioni digitali prima e poi costruendo e testando i due primi prototipi di robot che andranno a comporre l’Orchestra Meccanica.

Sempre il LIM ha sviluppato con Motor l’interfaccia tra i software musicali sviluppati da Motor stesso e i robot.

F.P.:La sfida è dunque stata anche la comunicazione tra gli attori?

S.L.: Pur rappresentando una metodologia nuova sul territorio e per certi versi sperimentale, la proposta di Action Sharing, non certo priva di difficoltà, è stata accolta dai vari soggetti coinvolti con grande entusiasmo.

Marco Ricci, rappresentante dell’azienda Erxa, mi diceva che sicuramente una sfida è stata capire le necessità del progetto. Gli ingegneri sono preparati a capire le necessità di un cliente o di un comparto tecnologico a livello industriale. Qui le necessità erano diverse, e una prima difficoltà è stata proprio questo nuovo contesto: il robot deve suonare, deve suonare forte e deve accompagnare il musicista e soprattutto deve trasmettere un’emozione al pubblico. E come si fa? Un robot industriale non è concepito per trasmettere un’emozione. Bisogna immaginarlo in un contesto, in un contesto coreografico in un contesto di musica.

Questo è stato sicuramente un aspetto che ha incuriosito molto gli ingegneri e sul quale però non sono abituati a lavorare. Hanno dovuto studiare, hanno dovuto dialogare molto con gli artisti. Da un punto di vista tecnologico e tecnico, c’è stata una sfida importante, cercare di replicare il più possibile il comportamento del robot con un comportamento umano. La conservazione di una sorta di componente “umana” nel funzionamento dei robot è stato uno dei fili conduttori di tutta l’operazione.

Motor: Vorrei aggiungere anche che la componente “umana” è per la nuova generazione di robot sempre più importante. I nuovi robot sono sempre più concepiti per lavorare al fianco degli uomini, ad esempio nei servizi, nella sanità e qualche volta anche per tenere compagnia.

Come il design ci insegna, la componente emozionale è fondamentale nel dialogo uomo-macchina.

Infatti Andrea Festini, ricercatore del Laboratorio Interdisciplinare di Meccatronica del Politecnico, dice: “Per cercare di analizzare e fare una sorta di valutazione comparativa di tutte le soluzioni che avremmo potuto utilizzare per ogni singolo arto abbiamo cominciato con il filmare delle prove fatte da noi stessi. Qualcuno all’interno del nostro laboratorio si diletta di percussioni, e osservando il modo in cui le mani si muovevano per utilizzare appunto questo strumento ci siamo fatti venire una serie di idee che sono poi state confrontate tra loro per cercare di valutare quella più promettente. Di solito invece, noi siamo abituati a lavorare con una fase preliminare di definizione delle specifiche nella quale sostanzialmente le performance del dispositivo vengono definite numericamente in maniera più precisa possibile. Quello invece che ha caratterizzato le scelte che sono alla base di questi automi è stato che il tutto avrebbe dovuto semplicemente obbedire a quello che era il gusto personale dell’artista. In sostanza Motor ha partecipato alle prime prove consentendoci di definire quelle che dovevano essere le performance del robot. Durante lo sviluppo e i primi test in realtà è stato lui a dire, che, proprio perchè meno preciso di una macchina sempre ripetitiva, sempre uguale e se stessa, andava meglio perché più umana. Quindi da questo punto di vista il lavoro è stato molto diverso da come lo conduciamo solitamente, e il contributo dell’artista ha consentito di esplorare delle metodologie di sviluppo che finora non avevamo provato”.

F.P.: Qual è il futuro di Action Sharing?

S.L.: Sicuramente c’è ancora molto lavoro da fare, ma i primi risultati sono molto positivi: la soddisfazione del team e degli sponsor, l’entusiasmo del pubblico (all’anteprima abbiamo dovuto ripetere due volte lo show e ciò nonostante molti non sono riusciti a entrare) e l’attenzione dei media ci hanno incoraggiato molto.

Terminati i brindisi, ci siamo rimessi all’opera.

Sicuramente uno dei prossimi passi sarà completare l’Orchestra con altri robot e lo spettacolo. Nel frattempo l’impegno di condivisione si svolgerà anche attraverso la disseminazione di quanto imparato, attraverso libri, seminari e ovviamente il web.

Insieme poi stiamo già pensando a nuovi progetti da realizzare attraverso Action Sharing… sempre legati ad arte e tecnologia, sempre in collaborazione con tutti gli attori del territorio, sempre con lo stesso entusiasmo!

Grazie a tutti!

LINKS

www.toshare.it

www.orchestrameccanicamarinetti.it

www.polito.it/lim

www.arp.it

www.primaelectronics.com

www.actua.it

www.erxa.it

Web2.0 vs WEB3.0

24 Novembre, 2009 By: admin2 Category: Articoli

web

Di Daniele Pauletto

Nella rivoluzione digitale vinceranno le società, i sistemi che si faranno trovare pronte

L’Università di Berkley ha recentemente calcolato che tra il 1970 e il 2000 (un arco temporale di 30 anni) sono state prodotte la stessa quantità di informazioni che sono state generate dalla preistoria ad oggi, grazie soprattutto al web.

Il Web con 1 miliardo e 200 mila siti, 60 milioni di log, 1,6 milioni di post (messaggi) multimediali prodotti ogni giorno, solo in Italia sono presenti circa 300 mila blog, cresce esponenzialmente.

Il Web 2.0 è per alcuni una nuova visione di Internet che sta influenzando il modo di lavorare, interagire, comunicare nella Rete, per altri una evoluzione di Internet.

Una rivoluzione silenziosa che consentirà un insieme di approcci innovativi nell’uso della rete,

dati indipendenti dall’autore che viaggiano liberamente tra un blog e un altro subendo trasformazioni e arricchimenti multimediali, di passaggio in passaggio, tramite la condivisione di e-comunità, l’idea che si approfondisce sempre più con la possibilità di diventare popolare, o esplodere in forme virali (ideavirus).

Le informazioni diventano opensource condivisibili, o IPinformation come preferiscono chiamarle altri, che navigano liberamente nel nuovo Web.

La rete ha trasformato ogni business in un business globale e ogni consumatore in un consumatore globale, la società verso una società della conoscenza, e l’economia verso un’economia digitale, la wiki economia, la collaborazione di “massa” in favore del vantaggio competitivo.

Il Web 2.0 è anche un nuovo modo di elaborare le informazioni basato su tecnologie “less is more” (tecnologie di facile apprendimento, uso e accessibilità) La condivisione e l’accesso alle informazioni ormai riguarda tutti; tutti potenzialmente possono diventare produttori di informazioni e di idee.

La società del futuro sarà digitale, mutevole, interattiva, basta osservare la notevole esplosione di nuovi media comunicativi. All’interno di ciò sta crescendo anche il networking aziendale, le Reti aziendali.

Le reti tra aziende, istituzioni, associazioni sono le armi fondamentali per la crescita e lo sviluppo sociale ed economico del territorio. Ogni azienda o istituzione isolata che non fa rete con altre, non si sviluppa o cresce molto lentamente, fatica a sopravvivere nella nuova società della conoscenza estesa ed iperconnessa. Servizi tecnologici esternalizzati,collaborativi che interagiscono con i clienti/utenti rendendoli parte attiva, creano nuovi scenari. É anche la Mashup Corporation, l’impiego cioè di tecnologie diverse offerte da più aziende distinte, integrate con tecnologie user oriented. Assemblare e inventare nuovi servizi che sfruttano tecnologie già esistenti sia nel mondo web, sopratutto Web2.0, sia in quello produttivo. Quindi nuove opportunità e servizi per nuovi clienti. Nuovi mercati, nuovi prodotti e nuovi clienti, sopratutto tra i digital natives (i giovani nati con le nuove tecnologie e padroni delle stesse). Un processo dinamico e graduale di apertura al globale e all’immateriale con maggior uso delle ICT (tecnologie dell’informazione e della comunicazione).Tutti i clusters (settori industriali aggregati in verticale od orizzontale per il vantaggio competitivo di M. Porter), per sopravvivere nell’economia globale e immateriale, dovranno prima o poi diventare e-clusters (cluster digitali), ossia aprirsi a reti di relazioni virtuali, a distanza, e a legami in communities allargate oltre la dimensione locale, per diventare multi-territoriali e transnazionali.

Nella rivoluzione digitale vinceranno le imprese, i sistemi che si faranno trovare pronti.

 

 

Web 2.0 (connect people)

Gli scettici del Web 2.0 e della conoscenza condivisa in generale puntano il dito sulla autorevolezza e sulla validità dei contenuti user- generated. La mancanza di un filtro preventivo sulle informazioni generate dagli utenti, come avviene invece nel mainstream, potrebbe essere considerato un punto debole del Web 2.0. La diffusione molecolare dell’informazione è resa possibile con terminali portatili connessi alla rete, infatti gli utenti (potenziali “gateway umani”), possono usufruire di una pluralità di dispositivi intelligenti, integrati nei più svariati tipi terminali mobili capaci di riconoscere e rispondere ininterrottamente in modo discreto e invisibile, ciò che va sotto il nome di tecnologia enable, abilitante. Nonostante la rivoluzione dal basso, del cliente-utente, fatta con gli strumenti del Web 2.0 interattivi e collaborativi, solo una ristretta élite determina i contenuti nel grande panorama del Web, è la regola dell’1% (su 100 utenti web solo 1% di essi è attivo nel produrre informazione,contenuti).

Tuttavia l’autorevolezza dei contenuti può autogenerarsi tramite una selezione dei contenuti stessi attraverso meccanismi di social network insiti nella rete stessa, al di là dei numero dei link e click per post pagina. Il concetto di conoscenza condivisa come creazione e diffusione di contenuti sembra stridere con la formazione culturale ed individuale a cui siamo stati abituati, e mi riferisco al mondo del lavoro, della formazione, dell’Università. Servirebbe un’evoluzione verso modalità digitali di pensiero più consone a quella delle nuove generazioni- utenti (digital natives). Esistono poi anche i digital explorers, coloro cioè che vanno per necessità nella cultura digitale per cercare ciò che può servire a raggiungere scopi che non siano fini alla cultura digitale stessa. Spesso viene a crearsi così un gap, da una parte i geeks (digital natives), dall’altra i dummies (digital immigrants) che faticano a relazionarsi e comunicare anche al di là dello spazio virtuale, nel mezzo un ampio spazio per i “gestori dell’interazione” sociale e comunicativa tra i due gruppi.

 

Versus WEB 3.0 ( connect infomation )

«Una delle migliori cose sul web è che ci sono tante cose differenti per tante persone differenti. Il Web Semantico che sta per venire moltiplicherà questa versatilità per mille… il fine ultimo del Web è di supportare e migliorare la nostra esistenza reticolare nel mondo». (Tim Berners Lee).

Dopo l’invenzione del linguaggio XML (eXtensible Markup Language, metalinguaggio utile allo scambio dei dati) impiegato in diverse applicazioni Web2.0, ora gli sforzi di ricerca si stanno concentrando nel suo impiego in tecnologie semantiche. Generalmente la ricerca di una parola sui motori di ricerca attuali, non contestualizzata, può generare un overload di risultati e quindi un eccesso di risposte inutili. Per ovviare in parte a tale effetto viene in soccorso la “tecnologia semantica” che dà rilevanza al significato reale dei termini e considera il contesto in cui sono inseriti, consentendo una ricerca più precisa e riducendo le risposte ridondanti. Si tratta di una visione completamente nuova nel web, basata sul concetto che ognuno,ogni creatore di contenuti può determinare una propria ontologia delle informazioni. A tal fine vengono impiegati sistemi di OSM (Ontology Systems Management) che possono utilizzare diversi linguaggi standard, come l’RDF (Resource Description Framework) o l’OWL (Ontology Web Language) che consentono nuovi costrutti. Con OWL è possibile scrivere delle ontologie che descrivono la conoscenza che abbiamo di un certo dominio, tramite classi, relazioni fra classi e individui appartenenti a classi. Con il Web2.0 e i Social Network abbiamo pensato che fosse arrivato il futuro ora sappiamo che sono solo il presente, nel futuro c’è il Web Semantico, il Web 3.0.