Provate a immaginare. Nuvole di punti a densità elevata, georiferite a un livello di accuracy importante e ottenute semplicemente da una sequenza di immagini rgb scattate da una camera non necessariamente metrica, dotata di un ricevitore gnss professionale.
E Reti Neurali, in grado di calcolare dati potenzialmente geografici provenienti da quelle immagini di cui siamo e saremo circondati anche ove ritenessimo di non aver prestato il consenso, anche se non saremo noi a rilevarle nonostante ci venga in qualche modo richiesto (Mapillary, etc..) ed anche, soprattutto, se saremo invece noi a risultare gli unici inconsapevoli rilevatori a pagamento, poichè pagheremo (paghiamo) per eseguire rilevamenti di cui altri beneficeranno molto più di quanto verrà concesso a noi. Sta già succedendo, certamente e in misura per molti inimmaginabile (Tesla, etc..).
Presto non faremo neanche in tempo a tenere traccia del numero di soggetti economici che fonderanno tutto o parte, anche una piccola parte, del loro core sull'archiviazione ed eventualmente pubblicazione di sequenze di immagini archiviate e di proprietà. Quale che sia la provenienza di queste, in un futuro decisamente prossimo saremo sommersi da immagini di qualità più o meno elevata, riferite ai nostri territori ed espresse ad una qualsivoglia definizione, scala, orientamento e numero di dimensioni. Se qualcuno di noi può ottenere nuvole di punti georiferite utilizzando semplici sequenze di immagini, significa innanzitutto che esistono modelli di business che si fondano su questo,e per conseguenza esistono potenziali clienti che proprio in questo momento stanno pensando di concertarne uno, cucito addosso alle proprie necessità d'impresa, persone che magari qualche settimana o mese prima di ritenere interessante o necessario un proprio modello in quest'ottica (è proprio il caso di dirlo), avevano posto all'ordine del giorno dei rispettivi CdA l'opzione strategica dell'investimento in strumentazioni LIDAR.
Sono cresciuto all'interno del mercato dei dati geografici e presto o tardi compresi che esiste una cosa chiamata fattore di scala, che già di per sé rappresenta l'elemento più rilevante dell'esistenza stessa di una molteplicità di segmenti produttivi nel tempo generati da questo mercato, la quale a sua volta è evidentemente in grado di condizionare le scelte di produttori e di fruitori della geoinformazione e che costituisce l'unico crocevia davvero fondamentale nella rete infrastrutturale degli investimenti, dell'equilibrio costi e ricavi, della tecnologia e, al momento sopra ogni altra cosa, della ricerca. Un fattore di scala definito permette di comprendere che cosa si può fare con un dato geografico piuttosto che con un altro. Un rilievo topografico al 1:200 o al 1:500 permette digestire e manutenere interi edifici, mentre una carta al 1:2000 o 1:5000 consente attività pianificatorie o di controllo e gestione sugli edifici stessi, non operazioni di intervento. Natturalmente l'accuracy si paga, poiché gli strumenti e il tempo necessari per coprire una certa superficie ai diversi fattori di scala sono differenti. Da almeno 15 anni, almeno in ambito aerofotogrammetrico e satellitare, il fattore di scala si esprime diversamente: con l'avvento dei sensori digitali fu introdotto il concetto di GSD (Ground Sampling Distance), ovvero la distanza a terra tra i punti centrali di due pixel consecutivi che sono parte di un'immagine telerilevata.
Più di recente, in ambito LIDAR, le point clouds sono valutate, fra l'altro, in termini di densità di punti per metro quadrato. Mentre in tutto questo frattempo, i diversi ricevitori GPS-GNSS hanno prodotto e producono precisioni misurate sulla base dei centimetri di errore medio di una sessione di rilevamento. Ma la questione è sempre quella. A parità di livello qualitativo del sensore utilizzato per le varie tipologie di rilevamento, almeno in termini di accuracy geometrica proposta o garantita, la sessione di lavoro consentirà un dettaglio e una precisione migliori con l'avvicinarsi dello strumento all'area da rilevare. E oggi, il riconoscimento delle entità geografiche tramite utilizzo di sistemi di Artificial Intelligence e delle discendenti Reti Neurali, segue le stesse medesime regole; solo, non richiede né offre l'utilizzo distrumentazioni di nuova concezione, apportando invece un cambio di passo tecnologico realizzato in gran parte attraverso attrezzature già esistenti e non necessariamente di ultima generazione.
Questa è la rivoluzione più eclatante degli ultimi tempi in materia GEO-IT, lo stacco più significativo, il solco ideologico più profondo. Fin dai primi anni '90, noi tutti eravamo stati testimoni di ben poche effettive innovazioni e la tecnologia GIS è rimasta sostanzialmente sempre la stessa: molti esperti di lungo corso, ancora pochi anni fa ricordavano quanto continuasse a cambiare poco o niente in fatto disoftware capabilities, di ambiti applicativi, e in un certo senso per conseguenza, anche infatto di skills professionali. Cosi, ci si arrovellava per trovare aree di interesse nuove utilizzando la medesima tecnologia di venti o trenta anni prima, interrotta per così dire soltanto dalla comparsa del world wide web, la quale aveva indotto le grandi software house globali alla creazione di linguaggi in grado di “semplicemente” consentire la migrazione della fruizione software in ambiente Internet per tutti quei settori produttivi che ne avrebbero ottenuto almeno un qualche beneficio. E poi, e siamo nel 2018 o giù di li, è partito il cambiamento, quello vero, progressivo,coinvolgente. L'operatività pratica delle tecnologie LIDAR e LIDAR SLAM si era dapprima affermata e poi diffusa nell'impiantistica, nei servizi a rete, nell'edilizia e nel BIM, e oggi fa capolino nell'urbanistica e nella cartografia, dove sta funzionando, seppure alla grande e grandissima scala. Ed è proprio questo il punto sul quale dobbiamo soffermarci con un po'di attenzione in più.
Rappresentazione 3D, Digital Twin o Metaverso, quale che sia l'obiettivo finale (per quanto ci riguarda, dal punto di vista dei dati strettamente geografici utilizzati cambia piuttosto poco), oggigiorno un numero ridottissimo di Local Governments ha desiderato e al contempo potuto investire le ingenti risorse economiche necessarie per raggiungere gli obiettivi di cui sopra in relazione ai rispettivi territori amministrati: almeno in quest'ambito, il LIDAR costa troppo. Un territorio comunale può essere volato in poco tempo e restituito senza troppi patemi, ma la cartografia 2D non è più l'obiettivo di tutti come una volta e le riprese oblique non consentono la realizzazione del modello 3D completo di un edificio, tantomeno nel totale rispetto delle specifiche LOD2 e LOD3 definite dall'Open Geospatial Consortium. Di conseguenza occorre integrare con significative sessioni di rilevamento aterra. E qui l'entità del budget che si rende necessario cresce, anche a dismisura: attrezzature di svariata tipologia, attività sul campo, autoveicoli, licenze software (non esiste al momento un'offerta open source matura in materia di trattamento delle nuvole dipunti), registrazione e classificazione delle aree rilevate, hardware. E allora? Disporre di un certo numero di “Google Car” aiuterebbe, ma fin dove ci potrebbe portare e a quali costi? Dinanzi a un quadro di questo genere ove l'obiettivo Digital Twin sia ritenuto importante o irrinunciabile, esiste un'altra strada.
Percorrerla potrebbe rivelarsi molto interessante,soprattutto adesso, quando il traffico è ancora piuttosto scarso e su quella strada transitano soltanto coloro che si sono svegliati di buon ora. Nel campo dell'apprendimento automatico, le reti neurali sono quanto di meglio. Esse fondano evidentemente la loro natura sulle metodologie tipiche dell'Intelligenza Artificiale per cosi dire, tradizionale. Affermano tuttavia uno step decisivo in più, quello di riconoscere e rispondere a stimoli non preprogrammati, per cui sono adatte a risolvere problemi più o meno imprevisti, proprio come fanno le cellule nervose in un essere umano. Attraverso le reti neurali è possibile riconoscere quindi entità grafiche-geografiche che presentano per loro natura caratteristiche non ripetute ma in qualche modo riconducibili a un livello di omogeneità, per conoscere il quale di solito si utilizza il discernimento. Emergono così opportunità importanti nella derivazione di una Cartografia 3D semiautomatica e costituita da feature classes ottenute quasi completamente da forme evolute di machine learning. Queste feature classes, livelli logici, layers o come le vogliamo chiamare in relazione alla nostra sensibilità e al nostro background formativo e professionale, possono quindi riversare sé stesse all'interno di un impianto geocartografico tridimensionale, inclusivo e descrittivo, completo delle pertinenti informazioni attributo desunte invece in modalità tradizionale, oppure anch'esse recepite da richieste eseguite ad un service AI come potrebbe essere lo stesso chatGPT, magari verticalizzato sulle informazioni oggettivabili sul territorio.
Siamo andati un po' veloci, in quest'ultimo cenno, ma la materia è avvincente più di quanto si potrebbe pensare e avremo credo occasione in un prossimo articolo. Ora cerchiamo di capire che cosa potrà succedere sul mercato. Una volta che le reti neurali si affermeranno decisamente sul riconoscimento delle entità geografiche, non appena la percentuale di oggetti riconosciuti in modo univoco e automatico oltrepasserà la fatidica percentuale dell'85 per cento, cosa che pareggerà i conti con i rilevamenti LIDAR-SLAM di natura speditiva (se parliamo di urbanistica e d iDigital Twin, l'entità delle superfici da attraversare non consente rilevamenti statici con alcuno strumento di precisione), ebbene allora si valuteranno i costi, che saranno impietosi nella condanna degli oggetti di cui al titolo di questo contributo. Stiamo riferendo al futuro prossimo, ma la cosa sta già accadendo.
E c'è di più. Attraverso le reti neurali è possibile derivare anche i vettori delle entità geografiche riconosciute: le nuvole di punti diventano cioè un semilavorato di un prodotto completo, finito e a basso costo, ove il cerchio della realizzazione cartografica 3D di una copia fedele della realtà si va a chiudere. Allora il cliente finale potrà optare per una point cloud oppure per il modello vettoriale dell'AOI richiesta, in base alle proprie necessità applicative; in alternativa potrà avere entrambe, utilizzando l'una per finalità a questo punto rappresentative e l'altro per il calcolo e per la gestione delle entità cartografiche rappresentate e a disposizione. E tutto questo varrà per l'edificato, per le infrastrutture viarie, per la vegetazione, e poi per un numero di livelli logici teoricamente senza limiti. Il LIDAR rimarrà ancora per un po' il cavallo di Troia ideale per una strategia commerciale calata sul politicamente corretto e ricorrente: poggiata cioè sulla promozione di unostrumento adatto a sollecitare l'immaginario collettivo sul piano delle attività di rilevamento tecnico di precisione. E lo sarà fino a quando risulterà sufficientemente rassicurante esibire l'utilizzo di questo tipo di sensore con finalità di vendita o di realizzazione di servizi conto terzi attraverso di esso.
Ma il LIDAR è morto. Ne danno il triste annuncio gli sviluppatori più avveduti in ambito AI e GEO-AI. E lo fanno, anche grazie all'inevitabile supporto in termini di allineamento dati (e non di georeferenziazione) delle piattaforme geografiche libere, OSM in testa. Non cifossero state queste, sarebbe stato un problema serio. Siamo arrivati fin qui anche grazieal loro contributo.
“Anyone relying on lidar is doomed. Doomed” (Elon Musk)