La funzione principale è quella di fornire in tempo reale la posizione e l’orientamento (posa) degli oggetti tracciati rispetto a una telecamera : controllo visivo automatico a partire dal 3D . Queste pose sono ottenute grazie al model tracking, ovvero il tracciamento basato sulla visione che utilizza un modello 3D/CAD di un oggetto reale. Il model tracking consente di ottenere stime affidabili e precise della posa con una minima sensibilità alle influenze ambientali. Sui dispositivi capaci di localizzazione e mappatura simultanea (SLAM), i risultati del model tracking vengono fusi con l’auto-localizzazione del dispositivo. Questo aumenta la resistenza alle interruzioni visive
La soluzione consente un’ampia gamma di applicazioni AR, tra cui:
Applicazioni di istruzione, formazione e assistenza remota
Applicazioni dimostrative, ad esempio per fiere, centri di assistenza clienti, ecc.
Strumenti di ispezione della qualità per i pezzi in entrata e in uscita e per il controllo qualità in produzione
Controllo visivo automatico
Produzione e assemblaggio veloci, riduzione delle risorse, convenienza: queste sono le sfide quotidiane per i produttori. Grazie a Twyn e alla realtà aumentata, i processi di qualità diventano rapidi, efficienti e completamente integrati lungo tutto il ciclo di vita produttivo: dalla progettazione alla prototipazione, dalla produzione all’assemblaggio
La localizzazione e mappatura visiva simultanea (vSLAM) si riferisce al processo di calcolo della posizione e dell'orientamento di una telecamera, rispetto all'ambiente circostante, mappando contemporaneamente l'ambiente. Il processo utilizza solo input visivi dalla telecamera.
Twyn consente agli utenti di avviare il tracciamento senza problemi, anche in scenari complessi. Le funzionalità automatizzate di generazione del processo e di ispezione delle parti consentono un’impostazione e un’implementazione del progetto altamente efficienti. Ciò rende la soluzione perfettamente adatta per la verifica di parti grandi e complesse direttamente sul posto. Gli operatori possono identificare rapidamente eventuali deviazioni sulla linea di produzione. Questa capacità è particolarmente cruciale per un controllo di presenza «parti» e «parti non corrette e/o mancanti ». La documentazione digitale è prodotta in tempo reale
VisionLib è una libreria di tracciamento della realtà aumentata creata da Visometry. Consente di creare applicazioni di realtà aumentata su scala industriale utilizzando le tecnologie di tracciamento della computer vision.
Con il cosiddetto Enhanced Model Tracking, VisionLib fa parte delle librerie di tracking AR più riconosciute per l’uso industriale e aziendale. La computer vision e il model tracking sono fondamentali per qualsiasi AR in cui gli oggetti fisici reali, i cosiddetti tracking target, vengono aumentati ed estesi con informazioni digitali. Che si tratti di riparazione e manutenzione, di casi di formazione basati sull’AR, di marketing o di vendita, nessuna di queste attività funzionerebbe senza un rilevamento e un tracciamento preciso e affidabile degli oggetti.
Abbiamo imparato questa tecnica di visione computerizzata, in quanto riteniamo che sia l’unico approccio sufficientemente stabile per tracciare oggetti 3D. Aiuta a superare i tipici “killer dell’AR”, come le condizioni di luce instabili o gli elementi dinamici e mutevoli del mondo reale.
Il motore VisionLib
In termini tecnici, VisionLib è una libreria di tracciamento AR multipiattaforma che incorpora un’intera serie di algoritmi necessari per il tracciamento AR. Si tratta di determinare la posizione di telecamere monoculari o multiple rispetto a oggetti noti nel mondo reale. Questo è ciò che si intende per tracciamento: la telecamera del dispositivo punta a un oggetto atteso, la posizione della telecamera viene calcolata per tracciare tali obiettivi e consentire così le applicazioni di realtà aumentata.
Qualunque sia la tecnica di tracciamento utilizzata: VisionLib espone queste informazioni per consentirvi di utilizzarle nel vostro ambiente di sviluppo. VisionLib consente di posizionare i contenuti in modo preciso e allineato agli oggetti reali con un’elevata precisione.
Informazioni su AR e tracciamento
La realtà aumentata (AR) descrive esperienze digitali in cui i contenuti virtuali, come la grafica 2D o 3D, si fondono e si allineano con il mondo reale. In questo senso, la AR estende, migliora o aumenta la visione del mondo reale da parte dell’utente. Quando un’applicazione sovrappone il contenuto a un’immagine live della fotocamera, l’utente sperimenta la realtà aumentata: l’illusione che gli elementi virtuali esistano come parte del mondo reale.
Lavorare con la viewport della fotocamera dei dispositivi mobili in questo modo è chiamato effetto video-see-through. Su HoloLens e altri occhiali per la realtà mista, che consentono di vedere la realtà attraverso un display trasparente invece di percepirla attraverso il flusso video, questo effetto di fusione è piuttosto chiamato effetto ottico-see-through.
Tracciamento con visione artificiale per la realtà aumentata
Indipendentemente dal dispositivo utilizzato, il requisito fondamentale per qualsiasi esperienza AR è la capacità di creare e tracciare corrispondenze tra il mondo reale dell’utente e lo spazio virtuale. VisionLib sfrutta le tecniche di computer vision per consentire questa corrispondenza e il tracciamento delle corrispondenze.
Con una moltitudine di tecniche di tracciamento disponibili, dalle tecniche basate sui marcatori a quelle basate sulle caratteristiche e sui bordi, la computer vision è un campo di ricerca attivo e in continua evoluzione, mentre allo stesso tempo alcune tecniche popolari hanno trovato successo e sono considerate lo stato dell’arte.
Per lo sviluppatore, la creazione di esperienze AR comporta diversi livelli. Innanzitutto, il livello di tracciamento: VisionLib gestisce l’acquisizione del mondo reale attraverso la computer vision. Il secondo livello è responsabile del rendering degli elementi visivi, cioè del contenuto virtuale. Con l’API di VisionLib, è possibile scegliere tra diversi ambienti di sviluppo, tra cui Unity3D è il più popolare e il più facile per iniziare. I primi due livelli sono sincronizzati attraverso l’API di VisionLib, che passa la matematica dal tracciamento al rendering. Il terzo livello è costituito dalla logica specifica dell’applicazione.
In senso più tecnico, la computervision tracking incorpora algoritmi e tecniche matematiche per descrivere o elaborare immagini, video o flussi di dati di profondità 3D. Nella Mixed Reality, si tratta ad esempio della cosiddetta stima della posa di una telecamera, che incorpora dati estrinseci (come i dati di traslazione e rotazione della telecamera) e intrinseci (come ad esempio la lunghezza focale e altri parametri dell’ottica della telecamera). Tutto ciò è necessario e utilizzato per creare una perfetta sovrapposizione del contenuto aumentato.
Ecco perché un’ottica ben calibrata della fotocamera è essenziale per l’AR mobile su tablet e smartphone, e allo stesso modo una buona calibrazione dell’occhio o della fotocamera è essenziale per gli occhiali XR.
Informazioni sul tracciamento: di “comprensione del mondo” e “tracciamento degli oggetti”.
Odometria: “Bolla AR”
Le prime forme di Realtà Aumentata sui dispositivi mobili utilizzavano esclusivamente sensori inerziali (come bussola, giroscopio e accelerometro) per inserire e allineare le informazioni nel dominio reale. I contenuti aumentano il nostro spazio visivo ma, dal punto di vista tecnologico, non c’è una comprensione più profonda della realtà, né ci sono particolari corrispondenze oltre alle letture dei sensori inerziali. I valori dei sensori inerziali vengono utilizzati per stimare al meglio la vista e la posizione dell’utente. Poiché i soli sensori inerziali tendono alla deriva, possono perdere code importanti, impedendo alla vista AR di presentare assegnazioni non ambigue.
Visione artificiale: Tracciamento di marcatori, poster e immagini
Il tracciamento di immagini, poster e marcatori con l’ausilio della computervision ha lo stesso fondamento: utilizzare un’immagine o un modello (noto) per il riconoscimento e tracciarlo all’interno del flusso video acquisito. Basandosi su quello che viene chiamato feature tracking, questi materiali 2D sono buoni bersagli, perché risultano in mappe di caratteristiche fisse. L’uso di questi tracker è stato ed è tuttora diffuso per molti casi di AR. Ad esempio, quando si dispone di un catalogo di prodotti stampati, è possibile utilizzare le immagini di determinate pagine per sovrapporre un prodotto raffigurato in una vista AR 3D.
Il tracciamento delle immagini di solito consente di ottenere risultati di incremento precisi, ma le immagini stampate sono solo 2D. Si potrebbe “etichettare” l’ambiente con le immagini e allineare gli oggetti fisici 3D in base a questi “marcatori spaziali”, per simulare un vero tracciamento degli oggetti 3D. Tuttavia, quando le cose cambiano (ad esempio, gli oggetti allineati si spostano) o i marcatori vengono rimossi o posizionati in modo diverso, la sovrapposizione non corrisponderà alla realtà e l’esperienza si interromperà. In tutti i casi, i marcatori di immagine devono essere preparati in anticipo.
Visione artificiale: AR con SLAM
La tecnica SLAM (Simultaneous Localization and Mapping) è diventata un discreto strumento di AR. Questa tecnica consente di ricostruire spontaneamente mappe dell’ambiente attuale grazie alla computer vision. Permette di aumentare e fondere i contenuti nella realtà in modo abbastanza stabile e funziona bene per il posizionamento di ologrammi con una comprensione di base dell’ambiente.
Ma lo SLAM non è in grado di rilevare con precisione i modelli e, poiché ricostruisce solo mappe di oggetti o spazi, ha problemi con i cambiamenti dell’ambiente o delle condizioni di luce e non è molto stabile nel tempo. Di conseguenza, per uno sviluppatore è difficile o quasi impossibile individuare in anticipo le informazioni in punti particolari della realtà e se si lavora con informazioni SLAM memorizzate o ancorate, queste potrebbero rompersi.
Visione artificiale: Disambiguità e chiarezza con il Model Tracking
Ogni volta che si vogliono creare applicazioni AR, in cui è necessario aumentare le informazioni in modo preciso e inequivocabile a un punto o a un oggetto specifico nella realtà, il model tracking è lo stato dell’arte con cui lavorare. Il model tracking localizza e traccia gli oggetti tramite dati 3D e CAD ed è un elemento chiave per tutte quelle applicazioni AR che richiedono di fissare informazioni e contenuti virtuali esattamente in un determinato punto o posizione.
Inoltre, poiché il tracciamento dei modelli di VisionLib supera gli ostacoli tipici dell’AR e della computervision, come le variazioni di luce o gli elementi in movimento, non sono necessari ulteriori preparativi, come l’etichettatura di oggetti o ambienti con marcatori o la preacquisizione di mappe SLAM.
Il tracciamento dei modelli come cambio di gioco
Per gli sviluppatori, si tratta di una novità assoluta per i casi di AR in cui è necessario fare affidamento su un tracciamento e un rilevamento stabili. Inoltre, utilizzando i dati CAD e 3D come riferimento, è possibile referenziare il contenuto AR in relazione al gemello digitale.
Anche per l’utente si tratta di un cambiamento di gioco, in quanto si ottengono app AR affidabili e preziose che lo supportano in molti ambiti diversi. Ad esempio, i manuali AR potenziati, che vi guidano visivamente attraverso una procedura passo dopo passo, riportando la coppia di serraggio o altre informazioni speciali sulla vite a cui appartengono. In questo modo le visualizzazioni AR sono su una scala completamente nuova: quella industriale.
PANORAMICA TECNICA
Controllare VisionLib con le configurazioni di tracciamento
È possibile orchestrare VisionLib e controllare il comportamento di base del tracking attraverso le configurazioni di tracking (file .vl). Lo sviluppatore può impostare il metodo di tracciamento, influenzare i parametri di tracciamento centrali, definire quale telecamera utilizzare per il tracciamento su un dispositivo multicamera, definire l’elenco dei modelli per il tracciamento di più oggetti, collegare diverse sorgenti di input da utilizzare o impostare parametri di debug durante lo sviluppo. Questi file di configurazione sono fondamentalmente file JSON con una struttura particolare.
Alcuni di questi parametri di configurazione fungono anche da comandi dichiarativi, che possono essere utilizzati, ad esempio, all’interno del sistema GUI di Unity per controllare e attivare particolari funzioni e configurazioni. Per riassumere: le configurazioni di tracciamento sono un modo rapido e dichiarativo per delegare e controllare il comportamento di VisionLib e influenzare i risultati del tracciamento senza bisogno di molta codifica. Ulteriori letture:
Dettagli sul tracciamento dei modelli
La funzione principale di VisionLib è quella di fornire in tempo reale la posizione e l’orientamento (posa) degli oggetti tracciati rispetto a una telecamera. Queste pose sono ottenute grazie al model tracking, ovvero il tracciamento basato sulla visione che utilizza un modello 3D/CAD di un oggetto reale. Il model tracking consente di ottenere stime affidabili e precise della posa con una minima sensibilità alle influenze ambientali. Sui dispositivi capaci di localizzazione e mappatura simultanea (SLAM), i risultati del model tracking vengono fusi con l’auto-localizzazione del dispositivo. Questo aumenta la resistenza alle interruzioni visive, come spiegato in dettaglio nella sezione “Metodo di tracciamento”.
Conoscere la posa di una telecamera rispetto a un oggetto di interesse è fondamentale per le applicazioni di realtà aumentata (AR), che si basano su questa relazione per proiettare correttamente e in modo credibile contenuti digitali nel flusso video della telecamera.
VisionLib consente un’ampia gamma di applicazioni AR, tra cui:
Applicazioni di istruzione, formazione e assistenza remota
Applicazioni dimostrative, ad esempio per fiere, centri di assistenza clienti, ecc.
Strumenti di ispezione della qualità per i pezzi in entrata e in uscita e per il controllo qualità in produzione
Caratteristiche
È possibile integrare il motore di tracciamento VisionLib nel proprio progetto tramite le tre API del nostro SDK: Le API C e Objective-C di basso livello e l’API Unity di livello superiore. L’SDK VisionLib offre le seguenti funzionalità:
Tracciamento del modello: Stima accurata e robusta delle pose degli oggetti rispetto al dispositivo.
Inseguimento multi-modello: Tracciamento simultaneo di diversi oggetti separati.
Tracking Fusion: Combinate il tracciamento del modello con le capacità SLAM del vostro dispositivo.
Rilevamento dello stato dell’oggetto: Rileva le modifiche alle parti dell’oggetto, come il movimento/la deformazione.
Tracciamento di poster: Tracciamento basato sulle caratteristiche di un’immagine di riferimento anziché di un oggetto di riferimento.
Tracciamento di modelli su HoloLens e Magic Leap 2 con Unity.
Supporto per telecamere industriali, configurazioni di telecamere multi-view, ecc.
Supporto per il framework AR multipiattaforma AR Foundation di Unity e debug con AR Foundation Remote.
Metodo di tracciamento
VisionLib traccia gli oggetti in base alle informazioni strutturali fornite dai file modello. Il motore di tracciamento individua i bordi che si aspetta di vedere e li fa corrispondere ai bordi trovati nel flusso di immagini della telecamera. Questo metodo richiede un modello 3D/CAD per ogni oggetto tracciato e presenta alcuni vantaggi fondamentali:
È resistente alle condizioni di luce avverse, compresi i cambi di luce dinamici e gli ambienti bui.
È in grado di gestire superfici con poca texture, superfici riflettenti e così via, a condizione che sia possibile distinguere un numero sufficiente di bordi.
Può seguire gli oggetti che si muovono dinamicamente nell’ambiente.
Fusione con SLAM
Come tecnica di tracciamento basata sulla visione, il nostro modello di tracciamento si basa sulla visibilità dell’oggetto tracciato nel flusso di immagini della telecamera. Il tracciamento può andare perso se l’oggetto è nascosto, se esce dal campo visivo della telecamera o se la telecamera viene spostata molto bruscamente e rapidamente. Se il tracciamento è interrotto, non è possibile aumentare il contenuto in modo accurato. Inoltre, se la telecamera viene spostata mentre il tracciamento è interrotto, VisionLib non sa più dove trovare l’oggetto nell’immagine. Di conseguenza, il tracciamento non può essere ripreso senza problemi quando l’interruzione si attenua. L’utente deve quindi attendere l’inizializzazione automatica o reinizializzare manualmente il tracciamento.
Questo problema è attenuato dalla fusione dei risultati del tracciamento del modello con lo SLAM.
I dispositivi SLAM riportano la loro posizione e il loro orientamento stimati nell’ambiente. Combinando queste pose assolute del dispositivo nel mondo con le pose dell’oggetto relative al dispositivo ottenute dal tracciamento basato sul modello, VisionLib può posizionare gli oggetti tracciati in pose assolute nel mondo. Questo permette a VisionLib di ricordare dove dovrebbe trovarsi un oggetto tracciato, anche se il tracciamento basato sul modello viene perso mentre il dispositivo è in movimento. Se l’oggetto tracciato non si è spostato, può essere ritrovato nell’ultima posa conosciuta nel mondo. Questo permette di aumentare continuamente i contenuti anche quando la visione è interrotta. Inoltre, il tracciamento riprende automaticamente dal punto in cui è stato interrotto al termine dell’interruzione. In questo modo si evita la necessità di reinizializzare il tracciamento attivo da parte dell’utente.
Tuttavia, il tracciamento può “sopravvivere” allo SLAM solo per un tempo limitato dopo l’interruzione del tracciamento del modello. Il tracciamento del modello è molto più stabile nel tempo rispetto a SLAM. Le stime di posa SLAM subiscono una deriva crescente nel tempo a causa della mancanza di un riferimento noto con cui verificare le stime. Il tempo in cui le pose SLAM rimangono sufficientemente accurate per supportare la reinizializzazione automatica del model tracking dipende dal dispositivo e dall’ambiente.
In sintesi, il metodo di tracciamento principale di VisionLib è il tracciamento basato su modelli. Questo metodo è integrato da SLAM (se disponibile). Entrambi i metodi annullano le rispettive debolezze. Il tracciamento basato su modelli è accurato e stabile nel tempo. Compensa inoltre la deriva di SLAM. Quando le interruzioni visive interrompono il tracciamento del modello, SLAM può intervenire e mantenere il tracciamento in vita finché l’interruzione non si attenua. Infine, SLAM consente anche di smussare l’aggiornamento della posa. Questa funzione è spiegata più dettagliatamente in “Smooth Time”
SLAM
Localizzazione e mappatura simultanea è un termine generico per indicare le tecniche utilizzate per localizzare un dispositivo in un ambiente (mondo) sconosciuto e creare contemporaneamente una mappa di questo mondo. A differenza del tracciamento basato su modelli, SLAM non traccia alcun oggetto rispetto al dispositivo. Al contrario, SLAM traccia il dispositivo stesso nel mondo. Esistono diversi approcci allo SLAM e vengono utilizzati diversi tipi di sensori. Per questo motivo, le implementazioni SLAM su piattaforme diverse variano, così come le capacità SLAM dei singoli dispositivi.
VisionLib è in grado di utilizzare le capacità SLAM dei dispositivi Android e iOS, oltre che di HoloLens e Magic Leap 2. Lo SLAM di Android e iOS è disponibile tramite VisionLib in modo nativo, utilizzando rispettivamente ARCore o ARKit.
L’idea della tecnologia del gemello digitale è stata espressa per la prima volta nel 1991, con la pubblicazione del libro Mirror Worlds, scritto da David Gelernter. Questo concetto innovativo ha iniziato a prendere forma nella mente di diversi studiosi e ricercatori nel settore tecnologico, che hanno cominciato a esplorare le sue potenzialità e applicazioni. Tuttavia, è stato il Dr. Michael Grieves, all’epoca docente presso l’Università del Michigan, a essere riconosciuto come il primo ad aver applicato concretamente il concetto di gemelli digitali alla produzione industriale nel 2002 (libro : Product Lifecycle Management ) . Grieves ha anche avuto il merito di aver annunciato formalmente il concetto di software del gemello digitale, gettando le basi per sviluppi futuri nel campo, e aprendo la strada a nuove possibilità di innovazione tecnologica e miglioramento delle performance industriali.
Alla fine, un ulteriore passo avanti significativo è stato compiuto da John Vickers della NASA, che nel 2010 ha introdotto un termine innovativo per descrivere questa tecnologia emergente: “gemello digitale”. Questo nuovo nome ha giocato un ruolo cruciale nel diffondere e consolidare il concetto all’interno della comunità scientifica e industriale, rendendo il concetto più accessibile e comprensibile per tutti. Di conseguenza, ha facilitato notevolmente la comprensione e l’adozione di questa straordinaria innovazione tecnologica, aprendo la strada a nuove applicazioni e sviluppi futuri.
Tuttavia, l’idea di utilizzare un gemello digitale come mezzo per studiare un oggetto fisico risale a molto prima rispetto a quanto si possa pensare. In effetti, si può affermare con sicurezza che la NASA ha fatto da pioniere nell’uso della tecnologia del gemello digitale durante le sue missioni di esplorazione spaziale negli anni ’60. Ogni veicolo spaziale in viaggio veniva esattamente replicato in una versione terrestre, che veniva utilizzata dal personale della NASA per scopi di studio, simulazione e per risolvere eventuali problemi tecnici che potevano sorgere durante il volo.
Sebbene sia le simulazioni che i gemelli digitali utilizzino modelli digitali per riprodurre i vari processi di un sistema, esiste una differenza fondamentale e significativa tra i due: un gemello digitale rappresenta un ambiente virtuale completo e integrato, il che lo rende significativamente più completo e versatile per l’analisi e la comprensione del sistema nel suo insieme. Questo ambiente virtuale dettagliato consente di monitorare costantemente, analizzare minuziosamente e ottimizzare in modo continuo i processi, offrendo un quadro estremamente dettagliato e integrato che una semplice simulazione non può fornire, rendendolo uno strumento indispensabile per una gestione avanzata e complessiva del sistema.
La distinzione principale tra un gemello digitale e una simulazione risiede nella scala e nella complessità delle operazioni che possono eseguire: mentre una simulazione si concentra in modo specifico su un singolo processo o una singola funzione del sistema, un gemello digitale ha la capacità di eseguire diverse simulazioni in parallelo. Questo approccio avanzato permette di studiare simultaneamente molteplici processi interconnessi, offrendo una visione olistica e dettagliata del funzionamento complessivo del sistema. Grazie a questa capacità di eseguire simulazioni multiple e di integrare i dati provenienti da diverse fonti, il gemello digitale diventa uno strumento indispensabile non solo per l’analisi avanzata, ma anche per la gestione e l’ottimizzazione dei sistemi complessi in tempo reale, migliorando notevolmente l’efficienza operativa e la capacità decisionale.
Le differenze non si fermano qui. Ad esempio, mentre le simulazioni tradizionali di solito non utilizzano i dati in tempo reale, i gemelli digitali sono progettati attorno a un flusso bidirezionale continuo di informazioni. Questo flusso si attiva quando i sensori installati sull’oggetto fisico trasmettono dati al processore del sistema di gestione. Il processo si completa nel momento in cui le informazioni elaborate dal processore vengono inviate nuovamente all’oggetto originale, permettendo così un aggiornamento e un adattamento costante basato sui dati più recenti disponibili.
Grazie a dati più accurati e continuamente aggiornati in una varietà di campi, combinati con la potenza di calcolo avanzata offerta da un ambiente virtuale, i gemelli digitali possiedono la capacità di analizzare una gamma molto più ampia di problemi da molteplici prospettive rispetto alle simulazioni tradizionali. Questo approccio innovativo offre un potenziale significativamente maggiore per il miglioramento di prodotti e processi, consentendo di ottimizzare le operazioni in modo più efficiente e di introdurre innovazioni con una velocità e precisione senza precedenti. Attraverso l’utilizzo dei gemelli digitali, è possibile ottenere una comprensione più profonda e dettagliata delle dinamiche operative, facilitando decisioni più informate e strategiche.
La simulazione dei processi in ambiente virtuale può aiutare l’innovazione dei prodotti in diversi modi:
1. Ottimizzazione del design: La simulazione virtuale permette di valutare il comportamento del prodotto in vari scenari e condizioni. Ciò consente ai progettisti di ottimizzare il design in modo che il prodotto soddisfi i requisiti di prestazione e di qualità, ma anche di costo e di sostenibilità.
2. Analisi dei requisiti e dei vincoli: La simulazione virtuale può aiutare a identificare i requisiti e i vincoli del prodotto in una fase molto precoce del processo di sviluppo. Ciò consente di definire gli obiettivi di progettazione in modo più preciso e di ridurre i costi di sviluppo e di produzione.
3. Riduzione dei tempi di sviluppo: La simulazione virtuale può accelerare il processo di sviluppo del prodotto, riducendo la necessità di prototipi fisici e di test. Ciò consente di ridurre i tempi di sviluppo e di conseguenza i costi associati.
4. Maggiore sicurezza: La simulazione virtuale può aiutare a valutare i rischi associati al prodotto in fase di progettazione. Ciò consente di identificare e mitigare i rischi prima che il prodotto entri in produzione.
5. Innovazione di prodotto: La simulazione virtuale può aiutare a stimolare l’innovazione di prodotto, fornendo un ambiente flessibile in cui sperimentare nuove idee di progettazione. Ciò consente ai progettisti di esplorare opzioni di design più innovative e di sviluppare prodotti che soddisfino meglio le esigenze dei clienti.
In sintesi, la simulazione dei processi in ambiente virtuale può aiutare l’innovazione dei prodotti in molti modi, dalla definizione dei requisiti e dei vincoli alla riduzione dei tempi di sviluppo, dall’ottimizzazione del design alla riduzione dei rischi associati al prodotto. Inoltre la simulazione virtuale può stimolare l’innovazione di prodotto fornendo un ambiente flessibile in cui esplorare nuove idee di progettazione
Cicli di vita dei prodotti più brevi, crescente complessità e rapida innovazione nello sviluppo del prodotto richiedono un elevato livello di flessibilità nei processi di produzione e una gestione efficiente delle risorse. E’ fondamentale evitare errori alla produzione e tendere ad azzerare i costosi tempi di inattività e rilavorazioni. È qui che il controllo qualità visivo in AR è una soluzione
Twyn è la piattaforma software mobile di realtà aumentata (AR) di Visometry che consente alle organizzazioni di creare piani di ispezione e condurre ispezioni in tempo reale utilizzando tablet direttamente sul posto, ovunque le parti vengano prodotte o immagazzinate
AR sovrappone le specifiche CAD ai componenti costruiti, consentendo agli operatori di verificare visivamente se le parti corrispondono al progetto CAD e sono prodotte correttamente
TRASFORMAZIONE DIGITALE CON L’AR INDUSTRIALE
La Realtà Aumentata (AR) sta trasformando il modo in cui operano le imprese, colmando il divario tra il regno digitale e quello fisico. Che si tratti di produzione, manutenzione o marketing. L’AR si è saldamente affermata come una componente vitale delle soluzioni industriali
Un tablet standard si trasforma in uno strumento di ispezione affidabile per gli operatori. Mentre cattura le caratteristiche degli oggetti ispezionati da varie prospettive, le immagini della fotocamera del tablet vengono integrate con dati CAD 3D in tempo reale. Queste precise sovrapposizioni AR consentono il rilevamento immediato di eventuali disparità tra gli oggetti effettivamente fabbricati e i modelli CAD (target)
Il controllo qualità mobile, facilitato da AR e Twyn, semplifica le attività di ispezione precedentemente manuali e accelera i processi che spesso si basavano su metodi di misurazione tradizionali. Troppo spesso viene utilizzata una tecnologia metrologica ad alta precisione ma dispendiosa in termini di tempo, quando un’ispezione visiva iniziale sarebbe sufficiente per identificare le deviazioni
Riassumendo :
Ispezionare le parti fabbricate dovunque e in qualunque momento
Evitare costosi tempi di inattività e rilavorazioni
Documentare i risultati per la tracciabilità e la riproducibilità
Assicurare precisione e velocità di ispezione
Rimanere nel campo della semplicità : soluzione intuitiva
Migliorare la produttività
ISPEZIONE BASATA SU CAD CON VISIONLIB
Il rilevamento e il tracciamento degli oggetti di Twyn sono basati su Visometry VisionLib Engine. Questo kit di sviluppo software (SDK), già scelto da aziende leader a livello internazionale in vari settori come quello automobilistico e dell’ingegneria meccanica, funge da base per un’ampia gamma di applicazioni AR che richiedono riconoscimento di oggetti ad alte prestazioni e tracciamento preciso
Utilizzando i dati CAD, VisionLib fornisce una determinazione affidabile e stabile della posizione degli oggetti nelle immagini della telecamera, consentendo a Twyn di ottenere un rilevamento preciso, senza marcatori e in tempo reale degli articoli ispezionati. Grazie a questa registrazione automatica degli oggetti, Twyn permette ispezioni senza la necessità di ulteriori preparativi
Mentre le tecnologie AR nelle applicazioni consumer determinano l’uso della telecamera in ambienti statici, VisionLib può anche tracciare oggetti in movimento in scenari dinamici e in condizioni di illuminazione variabili, indipendentemente dalle proprietà della superficie dell’oggetto (chiara o scura, opaca o riflettente).
Inoltre, VisionLib non si limita alla registrazione di una singola parte (“tracciamento del modello standard”); può tracciare più oggetti in modo indipendente e sincrono (“multi-model tracking”). Questa funzionalità consente a Twyn di controllare e verificare automaticamente diversi sottocomponenti di un assieme l’uno rispetto all’altro.
CARATTERISTICHE
Twyn offre una gamma di caratteristiche e funzionalità chiave progettate per supportare varie applicazioni industriali di ispezione della qualità manufatto .
Analisi interattiva della varianza in AR
L’AR sovrappone in modo accurato e coerente il CAD direttamente sull’oggetto ispezionato, fornendo accesso a dati geometrici 3D e dettagli aggiuntivi, come note di produzione o proprietà dei materiali. Ciò consente di rendere immediatamente visibili le deviazioni tra il bersaglio e l’oggetto reale.
Tracciamento e registrazione automatici in tempo reale
Twyn utilizza la fotocamera del tablet per registrare e tracciare automaticamente gli articoli prodotti in tempo reale. Fornisce un rilevamento e un tracciamento precisi senza marcatori degli articoli ispezionati sulla base di modelli CAD. Ciò costituisce la base per confronti visivi rapidi ma accurati, eliminando la necessità di pre-preparazioni o marcatori durante l’analisi delle parti
Flusso di lavoro ottimizzato
Caricato il modello CAD , impostazione del punto di inizio ispezione, trasferimento su iPad: bastano tre clic per iniziare le ispezioni. La configurazione basata su CAD twin e il riconoscimento ottico automatico consentono l’utilizzo immediato del sistema direttamente in cantiere.
Rilevamento automatico della deviazione basato su fotocamera
Sfruttando le capacità della fotocamera del tablet, il rilevamento automatico della deviazione basato sulla visione assiste gli utenti durante le ispezioni. In AR, le deviazioni vengono automaticamente evidenziate con colori diversi, ad esempio quando le parti di attacco vengono spostate o i fori non sono nella posizione target.
Zoom e ritaglio interattivi
Lo strumento lente consente agli utenti di esaminare comodamente oggetti grandi o complessi ingrandendo aree specifiche, facilitando ispezioni dettagliate di piccole caratteristiche o punti difficili da raggiungere. Il ritaglio interattivo e altre opzioni di visualizzazione forniscono un confronto visivo diretto tra il target e l’oggetto reale in AR, garantendo un’ispezione rapida ma approfondita
Punti di ispezione per parti complesse
I “punti di ispezione” nello spazio di Twyn consentono di individuare aree specifiche che richiedono particolare attenzione. Invece di fare affidamento su un’ampia panoramica dell’intero oggetto, è possibile classificare e consolidare più funzionalità. Questo approccio garantisce un modo preciso, intuitivo e più rapido per condurre ispezioni e documentare osservazioni e risultati. Una volta verificati, i punti di ispezione vengono evidenziati con indicatori dedicati e visualizzati con linee distinte, consentendo di monitorare facilmente lo stato di ciascuna caratteristica ispezionata
Piani di ispezione
Per ispezioni ricorrenti o routine di ispezione complete, Twyn fornisce una guida preziosa agli operatori attraverso istruzioni dettagliate presentate come liste di controllo complete. Ciò garantisce procedure, risultati e documentazione coerenti, indipendentemente dagli utenti o dal loro livello di esperienza
Punti di vista dell’ispezione
Gli indicatori visivi utilizzano puntatori 3D per contrassegnare ed evidenziare punti di interesse, semplificando le ispezioni di assiemi complessi guidando gli utenti verso le caratteristiche critiche. Questo approccio garantisce risultati coerenti e documentazione di ispezione standardizzata.
Dati di ispezione completi
Twyn facilita la documentazione approfondita dei risultati dei controlli di qualità. I contrassegni e le annotazioni migliorano la tracciabilità e semplificano la comunicazione tra i team di qualità, produzione e costruzione. Inoltre, con una fotocamera sempre a disposizione, Twyn consente l’acquisizione di immagini di caratteristiche rilevanti, garantendo un reporting efficiente e completo.
Report digitali personalizzabili
Report personalizzati e personalizzati forniscono riepiloghi concisi dei risultati delle ispezioni. Possono essere esportati in vari formati (ad esempio XLS, CSV o PDF) e facilmente condivisi con i team di qualità e produzione, nonché con i fornitori
Supporto CAD/3D
Twyn supporta i formati CAD 3D standard e i più importanti per applicazioni industriali e manifatturiere, eliminando la necessità di una conversione preventiva. Questi formati includono tra gli altri JT, STEP e IGES
Scansione identificativi Codice a Barre
Twyn consente all’operatore di collegare le parti con le procedure di ispezione e la documentazione utilizzando i relativi codici a barre . Indipendentemente dal fatto che l’utente effettui il controllo di qualità, semplicemente eseguendo la scansione dell’ID viene eseguito il corretto processo di ispezione corrispondente e viene salvato il relativo il piano di prova
Ottimizzazione e visualizzazione CAD
Un algoritmo di ottimizzazione CAD best-in-class prepara automaticamente i modelli per l’AR. Ciò consente agli utenti di lavorare con i propri file CAD originali senza la necessità di compressione, il tutto garantendo al tempo stesso un rendering inequivocabile e di alta qualità su misura per le applicazioni industriali
Registrazioni delle sessioni di ispezione
Gli utenti possono registrare immagini e dati del settore durante le ispezioni e successivamente riprodurli sui propri computer da postazioni remote. Ciò consente un’analisi di ispezione dettagliata in qualsiasi momento liberandoli dai vincoli di una posizione specifica in cui elaborare il dato
Realtà aumentata senza codice
Twyn consente agli utenti di creare flussi di lavoro di ispezione della qualità senza scrivere una singola riga di codice, semplificando la definizione e la conduzione di ispezioni visive della qualità anche senza alcuna esperienza in Augumented Reality
Dietro il modello Digital Twin, ampiamente adottato dalle aziende più innovative a livello globale, risiede un principio fondamentale: l’attuale evoluzione tecnologica si distingue per la transizione dagli “atomi” ai “bit”. Le motivazioni economiche di questa tendenza risiedono nel minor costo dei bit, sia in termini di “archiviazione” che di elaborazione e trasmissione. Quando le operazioni possono essere eseguite sui bit anziché sugli atomi, le imprese optano per questa soluzione.
Il Digital Twin, ovvero il “gemello digitale”, rappresenta repliche virtuali di sistemi fisici. Questi gemelli digitali vengono impiegati per testare e comprendere il comportamento dei sistemi e dei prodotti che un’azienda intende sviluppare. A tal fine, vengono utilizzati ambienti e simulazioni digitali e virtuali.
Dallara
Invece di sviluppare prototipi di scocche fisiche e testarli in gallerie del vento o altri laboratori tradizionali, crea modelli digitali dettagliati e su questi esegue tutte le prove e le simulazioni necessarie per raggiungere un progetto soddisfacente. Quando il modello virtuale è pronto e ottimizzato, si utilizzano vari tipi di macchinari avanzati, come stampanti tridimensionali e robot, per convertire i dati digitali in componenti fisici, trasformando così i bit in atomi e ottenendo il prodotto desiderato. Questo approccio rende l’intero processo di progettazione molto più rapido ed efficiente, consentendo di eseguire test e simulazioni che sarebbero complicati o impossibili su un mock-up fisico. Inoltre, diventa estremamente veloce provare soluzioni diverse, modificare forme e materiali e valutare strutture alternative, il tutto operando esclusivamente con modelli digitali.
Il passare da atomi a bit richiede competenze diverse, i progettisti sono, o vengono affiancati, da matematici specializzati e non facili da reperire. Inoltre, cambia il processo di progettazione, sviluppo e produzione . Occorre una nuova azienda.
Non si ferma qui. Un prodotto è un insieme di diverse componenti, solitamente create da aziende differenti. Perché non estendere l’idea di usare bit anziché atomi a tutte le imprese coinvolte nella filiera? Anche se alla fine ciascuna azienda dovrà realizzare e fornire un oggetto fisico, le fasi di progettazione potrebbero basarsi esclusivamente sui bit.
Una società sviluppa il proprio modello e lo consegna a un’altra azienda che lo integrerà nel proprio modello esistente o lo farà interagire con esso. Questo processo continua fino a raggiungere l’azienda responsabile dell’assemblaggio di tutti i componenti. Quella società simulerà l’operazione utilizzando i vari modelli ricevuti. Questo potrebbe sembrare fantascienza, ma è una realtà consolidata.
Boeing
Utilizza questo metodo per progettare i suoi aerei, iniziando con il modello 777. I fornitori di Boeing ricevono le specifiche digitali delle parti con cui i loro componenti dovranno interfacciarsi, che si tratti di un semplice rivetto o di un sofisticato sistema di gestione del volo. A loro volta, i fornitori forniscono a Boeing una rappresentazione digitale del componente futuro. Boeing poi integra questi componenti a livello digitale, esegue test rigorosi e simulazioni dettagliate. Solo quando è del tutto soddisfatta che tutto funzioni perfettamente, Boeing dà il via alla produzione, tanto per se stessa quanto per i suoi fornitori
Il modello in “bit” può anche essere utilizzato per fare test di durata, ad esempio per valutare l’usura di certe parti. Questi test possono essere eseguiti accelerando lo scorrere del tempo in modo da valutare in alcune ore anni e anni di operatività. In caso in cui si presenti un problema il tempo può essere “rallentato” per permettere al progettista di osservare quello che succede in intervalli di secondi o anche millisecondi, come guardare un film al rallentatore.
E’ facile capire l’utilità di passare a una progettazione e a uno sviluppo basati sui bit. Questo, però, non è che l’inizio di un nuovo modo di concepire un prodotto, sia da parte di chi lo produce sia da parte di chi lo utilizza. Benvenuti nel mondo dei Digital Twin.
General Electric
La General Electric da alcuni anni ha esteso l’utilizzo del modello fatto in bit delle sue turbine (sia quelle che sono utilizzate nei sistemi eolici sia quelle che operano nei motori dei jet più moderni come il Boeing 787) alla loro manutenzione e controllo.
Quando la turbina viene venduta, viene associata ad un modello in bit che da quel momento sarà specifico di quella turbina, un gemello digitale, un digital twin.
La turbina fatta di atomi, il prodotto, contiene una varietà di sensori che in tempo quasi reale comunicano con la turbina virtuale, informandola dell’utilizzo in corso. Ad esempio, nel caso di pale eoliche, verrà segnalata l’accensione, la velocità di rotazione delle pale, la potenza elettrica istantanea, l’attrito (riscaldamento) dei diversi componenti e così via.
Stesso discorso per la turbina di un motore di aereo (qui i parametri segnalati saranno molti . Il prodotto, contiene una varietà di sensori che in tempo quasi reale comunicano con la turbina virtuale, informandola dell’utilizzo in corso. Ad esempio, nel caso di pale eoliche, verrà segnalata l’accensione, la velocità di rotazione delle pale, la potenza elettrica istantanea, l’attrito (riscaldamento) dei diversi componenti e così via.
Stesso discorso per la turbina di un motore di aereo (qui i parametri segnalati saranno molti di più, ovviamente). Tanto per dare un’idea, 20 anni fa un aereo generava circa 1kB di informazioni per ogni volo, registrando lo stato dell’aereo 3 volte per ogni volo, stato basato su una trentina di parametri. Oggi un aereo di ultima generazione genera per ogni volo 500GB di dati, con lo stato aggiornato ogni secondo e basato su circa cinquemila parametri (dati forniti da General Electric).
Questi stati vengono inviati in tempo quasi reale (ogni minuto o ogni 3 minuti a seconda dell’area in cui sta volando l’aereo) e consentono da un lato di simulare la situazione operativa da parte del digital twin e dall’altro di rilevare difformità di funzionamento tra il digital twin e la turbina fatta di atomi (quella che vola!). Dato che il digital twin opera secondo i dati di progetto una difformità significa che qualcosa non va nella turbina reale. A questo punto scattano dei meccanismi di controllo per identificare il problema (ad esempio cosa stia causando un surriscaldamento) e quindi per porvi rimedio (ad esempio diminuire la richiesta di potenza al motore provvedendo ad aumentare, se possibile, quella dell’altro motore ribilanciando l’aereo per far fronte ad una spinta asimmetrica).
L’azienda che crea dei digital twin (la General Electric ne ha operativi oltre 550.000 a fine 2017) si apre uno spazio di business basato sulla offerta di servizi. Infatti fornisce un monitoraggio dell’operatività del prodotto e può spesso intervenire per porre rimedio a problemi o comunque suggerire interventi tempestivi di manutenzione.
Dal punto di vista dell’azienda, la capacità di monitorare i prodotti durante il loro utilizzo consente di verificarne le funzionalità e il modo in cui vengono impiegate. In pratica, permette di proseguire il testing in situazioni di uso reale e di affinare continuamente il prodotto. Dato che oggi ogni prodotto include una componente software significativa, l’azienda può modificare il software e aggiornare il prodotto (o offrire un aggiornamento a pagamento quando vengono apportati miglioramenti) in tempo reale.
Tesla
La Tesla riceve informazioni dalle sue auto ogni giorno: centinaia di migliaia di auto comunicano dove stanno viaggiando, gli ostacoli identificati lungo il percorso, il funzionamento del motore. Ogni giorno Tesla riceve l’equivalente di oltre 2 milioni di Km percorsi, sommando i contributi di tutte le auto. Questa enorme mole di dati consente di costruire una mappa costantemente aggiornata delle strade e di verificare la presenza di malfunzionamenti “strutturali”, cioè dipendenti dalla progettazione e che quindi coinvolgono molte vetture. Anche nel caso della Tesla ogni auto ha un suo “digital twin” costantemente aggiornato.
Un gemello digitale funziona replicando digitalmente una risorsa fisica nell’ambiente virtuale, comprese le sue funzionalità, caratteristiche e comportamento. Una rappresentazione digitale in tempo reale della risorsa viene creata utilizzando sensori intelligenti che raccolgono dati dal prodotto.
LE ULTIME TECNICHE DI ELABORAZIONE DELL’INFORMAZIONE
L’RPA utilizza input e logica strutturati, mentre l’intelligenza artificiale utilizza input non strutturati e sviluppa la propria logica.
Mentre l’RPA viene utilizzata per lavorare in collaborazione con le persone automatizzando processi ripetitivi (automazione assistita), l’intelligenza artificiale è vista come una forma di tecnologia per sostituire il lavoro umano e convergere verso una automazione non presidiata per realizzare una IPA : Intelligent Process Automation
Alcuni esempi di RPA
Data Transfers
Processing Payroll
Onboarding
System Setup
Call Centre Operations
Website Scraping
Processing Orders on eCommerce Sites
Customer Complaints
RPA non richiede alcuna competenza di programmazione per configurare il robot software. Poiché si tratta di una tecnologia priva di codice, qualsiasi persona non tecnica può configurare il bot utilizzando le funzionalità di trascinamento della selezione. Include anche il “Registratore” per registrare i passaggi dell’automazione
I principali vantaggi dell’RPA sono il miglioramento dell’efficienza, la riduzione dei costi, l’aumento della precisione, il miglioramento della conformità e la disponibilità delle risorse umane per compiti più strategici e creativi.
Esistono sorgenti di dati non strutturati di grande valore quali : Web , news , audio , video , email . Dati intrappolati all’interno dei più svariati formati : PDF, XLS, MP3, MP4 , HTML , DOC , etc . L’obiettivo di IPA è quello di una nuova lettura anche di questi processi : IDENTIFICAZIONE e AUTOMATIZZAZIONE combinando tecnologie differenti . In questo modo è possibile mettere in comunicazione questa sorgente di dati e valore con il mondo strutturato di ERP , CRM , BPM e ECM
La cattura intelligente è il fulcro dell’automazione intelligente. Non solo cattura i dati – anche non strutturati come quelli scritti a mano – ma li analizza e li classifica.
Una soluzione di cattura intelligente efficace consente di:
classificare, estrarre e validare informazioni in entrata velocizzare il completamento dei processi ridurre i costi ridurre il rischio di errori umani avere un ambiente di lavoro totalmente “senza carta”
L’automazione intelligente è basata su intelligenza artificiale. Si usa in genere per attività circoscritte, come la creazione di flussi di lavoro consolidati e per l’utilizzo di abilità diapprendimento ed anticipare le esigenze di utenti e clienti.
Quindi, benchè organizzata con logica incorporata, apprende anche mentre sta lavorando
L’automazione intelligente descrive il processo di trasformazione digitale mediante l’uso dell’analitica e dell’intelligenza artificiale al fine di sistematizzare il processo decisionale. Questi sono i quattro pilastri su cui si basa:
Automazione robotica dei processi (RPA): questo tipo di automazione tecnologica utilizza robot software (che possono essere installati su un PC, un server fisico o una macchina virtuale) per automatizzare la gestione delle mansioni precedentemente svolte dall’uomo.
Intelligenza artificiale (IA): gli algoritmi avanzati dell’IA offrono alle macchine, ai robot e ai software la capacità di prendere decisioni in modo intelligente e senza la necessità di interagire con gli esseri umani.
Gestione dei processi aziendali: questa pratica, nota come BPM (dal suo acronimo inglese Business Process Management), si riferisce al ciclo operativo di analisi e ottimizzazione di qualsiasi processo aziendale, in altre parole, l’insieme delle attività svolte in un’impresa. Un software BPM è responsabile di automatizzare l’esecuzione di questi processi per evitare che si producano errori derivanti dalla gestione manuale.
Integrazione: l’automazione intelligente deve garantire che i differenti robot software si sincronizzino, per disporre di un ciclo operativo integrato, veloce e affidabile. Nella connessione tra i sistemi, svolgono un ruolo importante le API, cioè le interfacce di programmazione delle applicazioni
L’automazione intelligente infine applica questi passi fondamentali:
Creazione e digitalizzazione Utilizzando le LCAP, puoi creare, configurare e integrare applicazioni unificate in grado di offrire le migliori funzionalità in tutti i canali.
Automazione Integrando le fonti di dati con le funzionalità dell’app, il passo successivo consiste nell’applicare le funzionalità di automazione. La RPA e l’elaborazione dei documenti giocano un ruolo fondamentale in questa fase.
Applicazione dell’intelligenza artificiale Successivamente la Predictive Intelligence viene incorporata nel sistema.
Individuazione e ottimizzazione Con l’automazione e l’intelligenza artificiale applicate correttamente, il processo di automazione intelligente è quasi completo. Tuttavia, c’è ancora margine di miglioramento. L’automazione dell’individuazione dei processi con l’automazione intelligente dei processi consente di individuare rapidamente i colli di bottiglia e le anomalie nei processi, di capire le cause principali e di ottimizzare continuamente le soluzioni di automazione intelligente
error: Content is protected !!
Gestisci Consenso Cookie
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.