Dinosauri in 3d stamattina in Ecotekne

//SPACIALE LIVING LABS// – MAUS, così rivive un Tarbosauro

Ecco Easy Perception Lab, progetto di Università del Salento, laboratori di ricerca e azienda privata. Dai disabili alla realtà aumentata. Per vivere la scienza, davvero

Oggi, 25 giugno alle ore 10.00 presso il museo MAUS del centro Ecotekne, sarà presentato il progetto Easy Perception Lab, con dimostrazione della realtà aumentata che “riporta in vita” i dinosauri LEGGI QUI GLI ARTICOLI CORRELATI: Per fare un dinosauro ci vuole la Neuroscienza Genuario Belmonte: ‘Ecco il Maus delle meraviglie' Che cosa fareste se vi trovaste davanti ad un dinosauro, ma per davvero? Oppure se vi trovaste immersi improvvisamente negli oceani, circondati dai plancton? Una realtà all’ennesima potenza. Una realtà iperreale. Una realtà aumentata. dinosauro LIVING LABS MAUS Tarbosauro Due scienziati che hanno la passione per la ricerca nelle vene, Sara Invitto e Genuario Belmonte sono partiti non dal dinosauro, ma da un sogno: far ‘vivere’ quel dinosauro ai disabili. Creare percorsi museali speciali per disabilità, e in quei percorsi, riscoprirsi tutti uguali: studenti, bambini, semplici turisti. Tutti accomunati dalla voglia di scoprire, di sapere, di immergersi, ma davvero, nella conoscenza. Ecco che da due scienziati visionari nasce a Lecce l’Easy perception lab: un progetto reso possibile dai finanziamenti regionali Living Labs, che hanno l’obiettivo di mettere in rete Università, centri di ricerca e aziende per creare ‘prodotti’ concreti, brevettabili, vendibili, replicabili. Presso il Museo dell’ambiente dell’Università del Salento sarà possibile fare la conoscenza del Tarbosauro, oppure farsi un video e una foto circondati dal plancton. Il Museo dell’Ambiente sarà visitabile con un semplice click, sia con il cellulare sia dal computer di casa. E ancora: un’App permetterà di visitare il museo sfogliando sul proprio smartphone informazioni aggiuntive e sovrapponendo schede informative a elaborazioni in 3D e realtà aumentata. Insomma, al Maus tutto ciò che è reale è virtuale e tutto ciò che è virtuale è stato reale. //IL PROGETTO Il prototipo innovativo Ep_LAB permetterà ad un ampio bacino di utenti (studenti, professori ed utenti museale e utenti diversamente abili), di sperimentare un nuovo approccio alla fruizione di beni storico-scientifici, sia fisicamente che virtualmente. // CHI HA LAVORATO AL PROGETTO Il partenariato Ep_LAB è costituito da AGILEX Srl, azienda che ha cofinanziato e cofinanziata dalla Regione per il Living Lab Ep_Lab, con la direzione di Dario Turco per la parte legata alle web application e Augmented Reality, dal Laboratorio di Ricerca Consorzio CETMA, con la direzione di Italo Spada per la parte di Virtual Reality and Augmented Reality, dall’Utente Finale MAUS – Museo dell'Ambiente dell’Università del Salento – con la direzione scientifica museale di Genuario Belmonte e da Sara Invitto, referente scientifica del Progetto Ep_Lab per l’Università del Salento, ha concluso i deliverables richiesti dal progetto. // I PRODOTTI REALLIZZATI Archivio Digitale e Piattaforma Web Ep_LAB 3.0: il prototipo di archivio digitale realizzato nell’ambito della proposta progettuale, ha come caratteristica principale la reperibilità dei beni archiviati tramite una mappa interattiva gis-based, che permette all’utente di raggiungere il contenuto museale con un semplice click. Un’area back-end permette al Museo di gestire l’archivio attraverso semplici interfacce di amministrazione e un’area front-end, permette a studenti o utenti, di consultare e approfondire le collezioni del MAUS tramite applicazione mobile o da piattaforma web. APP Ep_Lab AR: tramite l’ausilio della tecnologia della realtà aumentata markerless (permette di sovrapporre oggetti virtuali, soggetti 3D, filmati, foto, informazioni, ecc,) e l’ausilio di un dispositivo mobile (smartphone, tablet o webcam), l’utente avrà la possibilità di visualizzare i beni digitalizzati e i contenuti culturali in due differenti modalità: – in situ (presso il museo): puntando con un dispositivo mobile i beni esposti, l’utente potrà visualizzare contenuti aggiuntivi 3D in realtà aumentata, con i quali interagire e reperire informazioni aggiuntive. – in remoto (da piattaforma web): direttamente dell’archivio digitale, l’utente sarà in grado di decidere un percorso di fruizione museali e scegliere luoghi e contenuti da consultare attraverso tecnologie 3.0. (Gis, realtà aumentata, virtual tour 3D, ecc). Contestualmente alla realizzazione delle soluzioni proposte, è stata effettuata una sperimentazione finalizzata alla validazione delle interfacce AR (Augmented Reality) e VR (Virtual Reality), attraverso la registrazione di variabili psicofisiologiche (Event Related Potentials and Galvanik Skin Responce) legate all’ergonomia percettiva e condotte dal DiSTeBA – Dipartimento di Scienze e Tecnologie Biologiche e Ambientali, dell’ Università del Salento. Punti demo e corner 3D: nell’ambito del Workshop pubblico intermedio,,già realizzato presso il MAUS, il partenariato Ep_LAB ha realizzato due punti demo nei quali gli utenti hanno potuto sperimentare le nuove modalità di fruizione museale proposte dal progetto. In un angolo del museo è stato realizzato un Corner 3D nel quale gli utenti hanno interagito con l’animazione tridimensionale di un Tarbosaurus Baataar. plancton microrganismoContestualmente è stata realizzata una proiezione 3D in anaglifo raffigurante un paesaggio marino popolato da differenti specie di Plancton. Tali applicazioni permetteranno di registrare l’esperienza vissuta e di inviare un breve filmato di ricordo all’utente. Nell’ottica di riutilizzare l’hardware già in possesso del MAUS e adattare soluzioni tecnologiche low-cost e per migliorare l’attuale prodotto museale, il partenariato Ep_LAB si è focalizzato su una ricostruzione tridimensionale avanzata che permetterà, tramite economici occhialini 3D blue- red, di apprezzare specie marine non visibili ad occhio nudo. Il progetto si basava su dei presupposti teorici legati alle possibilità percettive e all’analisi di contenuto di quello che può essere studiato, percepito e memorizzato all’interno di una struttura museale. Il prodotti finali del progetto sono stati dei video in Realtà Virtuale sul Plancton con movimento interattivo, un video interattivo di Realtà Aumentata con un Tarbosauro Baataar, un sito web con schede paleontologiche sistematiche di reperti presenti all’interno del MAUS e georeferenziazione delle stesse per le località di ritrovamento dei fossili. Contestualmente alla realizzazione delle soluzioni proposte, è stata effettuata una sperimentazione finalizzata alla validazione delle interfacce AR (Augmented Reality) e VR (Virtual Reality), attraverso la registrazione di variabili psicofisiologiche (Event Related Potentials and Galvanik Skin Responce) basata sui presupposti teorici all’ergonomia percettiva. L’interfaccia web è stata validata attraverso un test di usabilità UCD. Tutti i test percettivi e di usabilità sono stati testati in studenti di Scienze della Formazione, Scienze Matematiche Fisiche e Naturali e Beni Culturali dell’Università del Salento. Attraverso le Analisi Psicofisiologiche sono stati validati e dimostrati diversi aspetti degli elementi prodotti in AR e VR. Risultati delle analisi svolte attraverso la tecnica dei Potenziali Evento Correlati, una tecnica di Cognitive Neuroscience, indicano che durante la presentazione in VR il soggetto mette in atto un processo percettivo più lento rispetto a quello normalmente elicitato, ma più attivante. Quando questo percetto è presentato in cross modale (percezione visiva con suoni), a prescindere che il suono sia consono o meno al percetto presentato (es. vedere un dinosauro in 3D e sentire il rumore dell’acqua o vedere il movie del plancton con il suono di un tirannosauro come sottofondo) aumenta il processo attentivo e quindi percettivo stesso. Secondo l’analisi ergonomica effettuata gli stimoli filogeneticamente più lontani attivano un diverso processamento corticale, indipendentemente dalla familiarità dello stimolo presentato. L'emisfero destro sembra essere più sensibile alle differenze legate alla rappresentazione visiva degli stimoli che vengono elaborati elicitando una più ampia e più lenta attivazione; questi stimoli corrispondono a quelli più lontani dal punto di vista evolutivo. Potremmo indicare che stimoli filogeneticamente lontani impegnano l'utente in una eccitazione corticale maggiore rispetto a stimoli più vicini e che, in una fase di presentazione immersiva nel museo, esiste una facilitazione percettiva dello stimolo, indipendentemente dalla sua difficoltà di categorizzazione. Possiamo leggere questi risultati come una conferma della necessità di effettuare delle analisi sulle caratteristiche degli stimoli che devono essere esposti all'utente: lo stimolo, anche se difficile da classificare, in base alle sue caratteristiche filogenetiche, è in grado di stimolare il coinvolgimento emotivo e consentire un'analisi più globale. Inoltre, un ambiente di apprendimento coinvolgente (Museale) aumenta notevolmente la capacità di discriminazione e di apprendimento dello stimolo esposto. In un contesto naturalistico-ambientale, con un apprendimento diretto e multisensoriale (quale quello presente in musei naturalistico ambientali) si riscontra una facilitazione di attività cognitivo-corticali implicite, non solo favorendole, ma che possono incrementare la motivazione all’apprendimento e l’elicitazione di elementi sensoriali poco stimolati nella normale. Il fatto che il percetto in VR sia presentato all’interno del MAUS (contesto di apprendimento) amplifica maggiormente il sistema attentivo e motivazionale (l’apprendimento full immersion in questo caso produce maggior effetti di quello mediato in laboratorio). Oltre quindi al processo innovativo e tecnologico i risultati tangibili di questo progetto sembrano essere anche che, attraverso nuove tecnologie e nuovi linguaggi è possibile attivare processi motivazionali e emozionali dell’utente in modo che, tanto più è interattivo e plurisensoriale il learning object, tanto maggiore è l’attivazione prodotta a livello corticale, a prescindere dal contenuto stesso dell’oggetto. Link siti: http://www.easyperceptionlab.it http://www.museoambiente.unisalento.it http://www.cetma.it http://www.agilex.it Bibliografia progetto: -Invitto S., Sammarco S., Durante N., Spada I., Turco D., Belmonte G., 2014 – MUSEUM ERGONOMY AND EVOLUTION: 2D, 3D AND MULTIDIMENSIONAL PERCEPTION. 54th Annual Meeting, Society for Psychophysiological Research, September 10-14, 2014 Atlanta, Georgia. -Invitto S., Sammarco S., Mignozzi A., Durante N., 2014 – Filogenesi e Percezione: Categorizzazione psicofisiologica di specie animali e oggetti. Psychofenia, Ricerca ed Analisi Psicologica, Pensa Multimedia, anno XV in press Codice ISSN 1722-8093 -Invitto S., Sammarco S., Spada I., Turco D., Luceri S., 2013 – Neuroaesthetic and Neuroarchaeology in a Natural History Museum Environment. Poster Congresso ANMS (Associazione Nazionale Museologia Scientifica), Venezia, Novembre 2013. -Invitto S., Sammarco S., Spada I., Turco D., Luceri S., 2013 – Neuroestetica e Neuroarcheologia in un Museo di Storia Naturale (Maus-Università del Salento) Atti di Congresso ANMS, Venezia 2013, subm. – Sammarco S., Quarta M., Durante N., Invitto S., 2013 – Phylogenetic scale: an introductive ERPs research. Congresso Ass. Ital. Psicologia – sez Sperimentale, Roma, Settembre 2013 – Scardino R., Sammarco S., Raho L., Spada I., Rizzi L., Schiavano E., Leuzzi M., Greco M., Invitto S., 2013 – Neuroaesthetics and Synaesthetic Perception in Museum and Learning Environment: The Making of Meaning. Poster Congresso ANMS (Associazione Nazionale Museologia Scientifica), Venezia, Novembre 2013. – Scardino R., Sammarco S., Raho L. , Spada I., Rizzi L., Schiavano E., Leuzzi M., Greco M., Invitto S., 2013 – Neuroestetica e percezione sinestetica nei musei e nell’ ambiente di apprendimento: Il prendere corpo del Significato. Atti Congresso ANMS, Venezia, Novembre 2013 subm. Contatti Nazionali e Internazionali che hanno contribuito all’invio di immagini per la realizzazione dei Prodotti in 3D: Rinchen Barsbold, Academician, Director, Paleontological Centre of the Mongolian Academy of Sciences. BZD, Enhtaivny prosp., Paleontological Centre of the Mongolian Academy of Sciences – Ulaanbaatar, Mongolia. Tod O’Brien NOAA, The National Oceanic and Atmospheric Administration COPEPOD / COPEPODITE Project Leader NOAA – NMFS – Science & Technology – Marine Ecosystems Division – United States of America Russell R. Hopcroft Professor, Institute of Marine Science University of Alaska Fairbanks- Fairbanks Stefano Piraino Laboratorio di Biologia Evolutiva degli Invertebrati marini, Dipartimento di Scienze e Tecnologie Biologiche ed Ambientali (DiSTeBA) Università del Salento, Italy Maurizio Pinna Phytobiologia Marina Dipartimento di Scienze e Tecnologie Biologiche ed Ambientali (DiSTeBA) Università del Salento, Italy

Rispondi

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Moderazione dei commenti attiva. Il tuo commento non apparirà immediatamente.

Info sull'autore

Il Tacco d’Italia. Testata giornalistica

Articoli correlati

NON seguire questo link o sarai bannato dal sito!