Il touchscreen è un ossimoro, un piccolo paradosso perché porta il tatto là dove apparentemente non c’entra, ossia dentro il mondo visuale. Il ritorno dell’utente, immerso nel virtuale, torna a chiedere l’interfaccia manuale nella gestione dell’informazione.
Più virtualmente viviamo, più necessitiamo la presenza e la prova del corpo.
Partiamo da qui, dalle parole del grande sociologo canadese, per sottolineare l’importanza del corpo nel rendere significativa l’esperienza (e quindi l’apprendimento) umano.
Partiamo con questa citazione e potremmo continuare affrontando molti dei temi che negli ultimi anni sono emersi nella ricerca neuro scientifica: dai neuroni specchio alle indagini attorno ai fondamenti corporei ed emozionali della coscienza (A.Damasio)…
La tecnologia Touch dei tablet e degli smartphone ci consente di riportare il corpo all’interno del mondo virtuale e rende possibili ambienti di apprendimento più facilmente manipolabili e, quindi, potenzialmente significativi per il discente.
Quando si parla di apprendimento, però, centrale è il problema della personalizzazione del percorso, dei contenuti, delle modalità di interazione. Soprattutto se ci sono delle difficoltà o delle disabilità.
MIT App Inventor 2 (vedi qui il nostro primo post, in cui spieghiamo i rudimenti di questo ambiente) è uno strumento semplice che ci consente di progettare applicazioni molto personalizzate e personalizzabili, favorendo interazioni touch.
Vediamo come:
I Bottoni
Il primo è più comune strumento è il Bottone: in sostanza un’area dello schermo che, una volta premuta, può “fare” qualcosa (inviare un sms, salvare delle informazioni, riprodurre una melodia, aprire un browser…).
Nel Design Editor, il bottone si trova subito in altro a sinistra.
Per inserirlo nell’applicazione è sufficiente trascinarlo nel Viewer (la finestra che simula l’aspetto del nostro tablet).
Dalla finestra successiva (Components), è possibile modificare il nome del bottone e, infine, dall’ultima finestra (Properties) è possibile modificare: colore di sfondo, carattere, dimensioni (assolute o in percentuale sulle dimensioni dello schermo), contenuto e colore del testo che compare nel bottone…possiamo così ragionare (e provare e riprovare) sino a trovare la combinazione di dimensioni e testo più adeguate al (ai) destinatario (i) della nostra App.
Per attribuire un comportamento al nostro oggetto-bottone, dobbiamo spostarci nel Bloks Editor: sulla nostra sinistra appariranno le categorie di blocchi di istruzioni selezionabili, raggruppate per funzioni e per oggetti di cui si compone la nostra App.
Se selezioniamo il nostro bottone, MIT App Inventor ci suggerirà i possibili blocchi di istruzione associati:
Ancora una volta, sottolineo le possibilità di personalizzazione e il loro interesse se pensiamo alle diverse condizioni e potenzialità di movimento, differenti da un utilizzate all’altro: possiamo scegliere di far compiere un’azione al Click del bottone, oppure solo dopo un lungo click o, ancora, quando il bottone viene rilasciato…
Il blocco seguente, previo inserimento (nel design editor) del componente “Text to Speech” (sintesi vocale), prevede che al Click del bottone, il nostro dispositivo debba pronunciare la parola “Ciao” (qui il tutorial completo, semplicissimo, dal sito di MIT App Inventor):
Il Bottone è, però, solo la prima funzionalità Touch a nostra disposizione: non possiamo, per esempio, muoverli, o gestirne le collisioni, animarli…tutte cose che sono invece utilissime ai nostri fini e che apprenderemo introducendo due nuovi oggetti: i Canvas e gli Sprite.