L'Ai a cura di Epitteto.
L'intelligenza Artificiale ora entra nell'Internet delle Cose
07 Settembre 2016
<> Machine learning, ma a piccoli passi.
Chiudendo il sipario di Ifa 2016, l’appuntamento più atteso d’Europa in
fatto di elettronica di consumo, il sapore che rimane in bocca è quello
di un’innovazione a metà. Un’innovazione che corre ancora, ma che fatica
a tagliare nuovi traguardi reali.
Fra droni, smart device di ogni genere e televisioni sempre più performanti, gli stand berlinesi hanno offerto un quadro super aggiornato del mondo tecnologico, dove i produttori asiatici continuano a recitare un ruolo da autentici protagonisti. Tuttavia, gli ultimi mesi hanno partorito – in ottica elettronica di consumo – un perfezionamento dell’ecosistema smart, ma solo piccole dosi di applicazione dell’intelligenza artificiale. I device sono sempre più connessi, la raccolta di dati sta diventando sempre più massiva, la sensoristica cresce. È connesso il frigorifero, come la lavatrice e per fino lo spazzolino da denti che mette in una cloud tutti i dati dei tuoi lavaggi e li trasferisce al tuo dentista. Ma la vera sfida, adesso, è rendere questi device autonomi grazie a reti neurali artificiali e apprendimento automatico.
Ed è qui che l’elettronica di consumo sarà chiamata ad innovare in modo drastico nel corso dei prossimi mesi e anni. La fase attuale è concentrata sulla raccolta dei dati, grazie a device zeppi di sensori. Questi dati, strutturati, contribuiranno all’apprendimento automatico.
Ma oggi qual è lo stato dell’arte? La tastiera del tablet Lenovo Yoga Book che intuisce ciò che vogliamo scrivere, il navigatore TomTom Go che impara a conoscere la nostra voce e le nostre abitudini di guida, l’auricolare Sony Xperia Ear che ci permette di controllare lo smartphone e ricevere notifiche senza dover toccare il display (giusto per citare tre device presentati a Berlino), sono esempi di intelligenza artificiale concreti. Ma il saldo finale non è da urlo. Almeno non ancora. Da tempo, gli esperti continuano a dire che l’avvento del machine learning – ovvero la capacità delle macchine di apprendere, percepire fenomeni e gestire istantaneamente le informazioni – sarà la vera svolta dell’elettronica di consumo. Si tratta di un processo già in corso, che prende forma con le tecnologie di riconoscimento facciale e vocale già integrate in molti smart device. Ma l’impressione è che lo step successivo sia ancora lontano.
È il settore dell’elettronica di consumo che fa segnare il passo dopo una folle corsa? Difficile dare una risposta certa. Perché il binario sul quale corrono queste nuove tecnologie è doppio. E lega produttori irrimediabilmente produttori e sistemisti
La sensazione, almeno dopo Ifa, è che soprattutto dal punto di vista consumer, c’è molta progettistica e poca applicazione. E che servirà ancora tempo per far sì che i device più utilizzati apprendano da sé. Dall’altra parte, però, c’è un lato business che spinge forte. I colossi californiani stanno puntando forte sul machine learning in termini di ricerca e investimenti. E se per ora apprendimento automatico e reti neurali fanno fatica a trovare spazio concreto nell’ecosistema wearable, non può essere che una questione di tempo. Google, Facebook e gli altri big trascineranno il mondo tech in questa direzione che sembra inesorabile.
Proprio nei giorni di Ifa, per esempio, Google ha annunciato che il suo progetto di intelligenza artificiale DeepMind analizzerà centinaia di risonanze di testa e collo per imparare a distinguere tra il tessuto sano e quello tumorale, in modo da guidare la radioterapia riducendone il tempo e le radiazioni utilizzate. Un processo che attualmente richiede quattro ore di lavoro umano. Per insegnare a DeepMind a segmentare il tumore verranno forniti oltre 700 esami anonimizzati di pazienti in modo da sviluppare un algoritmo in grado di condurre il procedimento da solo. È solo un esempio di quanto un colosso come Big G stia premendo forte il piede sull’acceleratore dell’intelligenza artificiale. Il resto verrà da sé. È solo una questione di tempo.
di Biagio Simonetta
Articolo tratto da Il Sole 24 Ore di Domenica 04.09.2016
L'intelligenza Artificiale ora entra nell'Internet delle Cose
07 Settembre 2016
<
Fra droni, smart device di ogni genere e televisioni sempre più performanti, gli stand berlinesi hanno offerto un quadro super aggiornato del mondo tecnologico, dove i produttori asiatici continuano a recitare un ruolo da autentici protagonisti. Tuttavia, gli ultimi mesi hanno partorito – in ottica elettronica di consumo – un perfezionamento dell’ecosistema smart, ma solo piccole dosi di applicazione dell’intelligenza artificiale. I device sono sempre più connessi, la raccolta di dati sta diventando sempre più massiva, la sensoristica cresce. È connesso il frigorifero, come la lavatrice e per fino lo spazzolino da denti che mette in una cloud tutti i dati dei tuoi lavaggi e li trasferisce al tuo dentista. Ma la vera sfida, adesso, è rendere questi device autonomi grazie a reti neurali artificiali e apprendimento automatico.
Ed è qui che l’elettronica di consumo sarà chiamata ad innovare in modo drastico nel corso dei prossimi mesi e anni. La fase attuale è concentrata sulla raccolta dei dati, grazie a device zeppi di sensori. Questi dati, strutturati, contribuiranno all’apprendimento automatico.
Ma oggi qual è lo stato dell’arte? La tastiera del tablet Lenovo Yoga Book che intuisce ciò che vogliamo scrivere, il navigatore TomTom Go che impara a conoscere la nostra voce e le nostre abitudini di guida, l’auricolare Sony Xperia Ear che ci permette di controllare lo smartphone e ricevere notifiche senza dover toccare il display (giusto per citare tre device presentati a Berlino), sono esempi di intelligenza artificiale concreti. Ma il saldo finale non è da urlo. Almeno non ancora. Da tempo, gli esperti continuano a dire che l’avvento del machine learning – ovvero la capacità delle macchine di apprendere, percepire fenomeni e gestire istantaneamente le informazioni – sarà la vera svolta dell’elettronica di consumo. Si tratta di un processo già in corso, che prende forma con le tecnologie di riconoscimento facciale e vocale già integrate in molti smart device. Ma l’impressione è che lo step successivo sia ancora lontano.
È il settore dell’elettronica di consumo che fa segnare il passo dopo una folle corsa? Difficile dare una risposta certa. Perché il binario sul quale corrono queste nuove tecnologie è doppio. E lega produttori irrimediabilmente produttori e sistemisti
La sensazione, almeno dopo Ifa, è che soprattutto dal punto di vista consumer, c’è molta progettistica e poca applicazione. E che servirà ancora tempo per far sì che i device più utilizzati apprendano da sé. Dall’altra parte, però, c’è un lato business che spinge forte. I colossi californiani stanno puntando forte sul machine learning in termini di ricerca e investimenti. E se per ora apprendimento automatico e reti neurali fanno fatica a trovare spazio concreto nell’ecosistema wearable, non può essere che una questione di tempo. Google, Facebook e gli altri big trascineranno il mondo tech in questa direzione che sembra inesorabile.
Proprio nei giorni di Ifa, per esempio, Google ha annunciato che il suo progetto di intelligenza artificiale DeepMind analizzerà centinaia di risonanze di testa e collo per imparare a distinguere tra il tessuto sano e quello tumorale, in modo da guidare la radioterapia riducendone il tempo e le radiazioni utilizzate. Un processo che attualmente richiede quattro ore di lavoro umano. Per insegnare a DeepMind a segmentare il tumore verranno forniti oltre 700 esami anonimizzati di pazienti in modo da sviluppare un algoritmo in grado di condurre il procedimento da solo. È solo un esempio di quanto un colosso come Big G stia premendo forte il piede sull’acceleratore dell’intelligenza artificiale. Il resto verrà da sé. È solo una questione di tempo.
di Biagio Simonetta
Articolo tratto da Il Sole 24 Ore di Domenica 04.09.2016
Nessun commento:
Posta un commento