Cos’è la visione event-based e in cosa si differenzia da quella tradizionale
Nel campo della machine vision, le telecamere event-based rappresentano un approccio innovativo: invece di acquisire immagini complete a intervalli fissi, come fanno le tradizionali telecamere frame-based (telecamere area scan), questi dispositivi rilevano solo le variazioni di luminanza, pixel per pixel, in tempo reale.
In un sistema convenzionale, ogni pixel del sensore cattura l’intensità luminosa in un determinato momento (esposizione), e tutti i pixel compongono un’immagine o frame.
Questo può avvenire in modo simultaneo con global shutter o sequenziale per riga con rolling shutter. In entrambi i casi, il sistema acquisisce tutto ciò che è presente nella scena, anche se statico, producendo grandi volumi di dati anche quando nulla cambia.
Le telecamere basate su eventi funzionano in modo completamente diverso: ogni pixel agisce come un sensore autonomo e genera un evento solo quando rileva una variazione luminosa significativa rispetto al proprio stato precedente. Non c’è alcun frame, nessuno shutter e nessun tempo di esposizione. Solo ciò che cambia nella scena viene registrato.
Questa caratteristica rende i sistemi di visione artificiale event-based ideali per contesti dinamici, in cui è fondamentale ridurre la latenza, migliorare la sensibilità e alleggerire il carico dati.
![]() Tutti i pixel del sensore catturano la luminanza della luce simultaneamente (otturatore globale) o in sequenza per righe (otturatore rolling). La telecamera elabora quindi questi dati per creare i fotogrammi dell’immagine. |
![]() Ogni pixel funziona in modo indipendente, rilevando variazioni di luminanza e trasmettendo le coordinate (x, y), la polarità (p) e il timestamp (t) quando le variazioni superano una soglia predefinita. |
Come funziona un sensore di visione Event-Based
Al cuore di ogni camera EVS (event vision sensor) c’è un principio semplice ma estremamente potente: ogni pixel osserva costantemente il livello di luce che riceve. Quando la variazione supera una soglia predefinita, il pixel genera un evento.
Il processo si sviluppa in più fasi:
1) Conversione della luce in segnale elettrico
Ogni pixel converte la luce incidente in una tensione.
2) Filtraggio del segnale
Il segnale viene processato attraverso due filtri:un filtro passa basso (Low Pass) per attenuare variazioni troppo rapide e un filtro passa alto (High Pass) per eliminare variazioni troppo lente o costanti.
3) Confronto con la tensione di riferimento
Il segnale filtrato viene confrontato con un valore di riferimento interno, e viene calcolata la differenza (delta).
4) Controllo soglia
Se il delta supera la soglia positiva o negativa impostata, il pixel genera un evento.
5) Produzione dell’evento
L’evento viene codificato con le coordinate (x, y) , la polarità (positiva: da scuro a chiaro, o negativa: da chiaro a scuro) , e un timestamp, che indica l’esatto momento dell’evento.
Questo processo asincrono e indipendente per ogni pixel consente ai sensori di visione event-based di raggiungere una risoluzione temporale molto elevata e una sensibilità al cambiamento impossibile da ottenere con sensori tradizionali.
Come si configura un sensore Event-Based: parametri e filtri
Questi sensori permettono un alto grado di personalizzazione grazie a una serie di parametri regolabili, chiamati bias e filtri.
| Parametro/Filtro | Descrizione | Impatto |
| Bias Low Pass Filter | Regola la risposta ai cambiamenti rapidi, filtrando il rumore ad alta frequenza. | Aumentare questo valore riduce la sensibilità a variazioni luminose molto veloci, utili per eliminare il rumore di pixel o fluttuazioni minime non desiderate. Diminuirlo permette di catturare anche cambiamenti estremamente rapidi, ma potrebbe aumentare il rumore. |
| Bias High Pass Filter | Rimuove i cambiamenti troppo lenti, evitando la generazione di eventi inutili. | Un valore più alto ignora le variazioni graduali o costanti, come quelle dovute a illuminazione ambientale che cambia lentamente. Un valore più basso rende il sensore più sensibile anche a movimenti lenti, ma può generare più eventi per scenari statici. |
| Bias Event Threshold (positivo/negativo) | Definisce quanto un pixel deve variare per generare un evento. Soglie più basse = più sensibilità, ma anche più rumore. | Impostare soglie più basse aumenta la sensibilità e permette di rilevare anche minime variazioni di luce (utile in ambienti poco illuminati), ma può introdurre rumore. Soglie più alte riducono il rumore e concentrano gli eventi su cambiamenti significativi, a scapito di una minore sensibilità. La distinzione tra positivo (scuro a chiaro) e negativo (chiaro a scuro) permette una regolazione fine per entrambi i tipi di variazione. |
| Bias Refractory Period | Imposta un intervallo minimo tra un evento e il successivo sullo stesso pixel, per evitare sovraccarichi. | Un periodo di refrattarietà più lungo riduce il numero di eventi generati da un singolo pixel in un breve lasso di tempo, prevenendo la saturazione e l’eccesso di dati. Utile in scenari con rapido e continuo sfarfallio o vibrazioni che potrebbero altrimenti inondare il sistema. |
| Event Rate Control (ERC) | Limita il numero massimo di eventi per secondo per mantenere costante il flusso dati. | Indispensabile per gestire la larghezza di banda e le risorse computazionali. Permette di definire un “budget” di eventi, rallentando o scartando eventi se il flusso supera il limite impostato, garantendo stabilità del sistema anche in scene molto dinamiche. |
| Event Burst Filter (TRAIL / STC) | Riduce gli eventi ridondanti quando molti pixel attivano eventi simili in rapida sequenza. Filtri come TRAIL (Temporal Redundancy Activity Identification and Suppression) o STC (Spatio-Temporal Correlation) raggruppano eventi correlati o ignorano eventi che non mostrano una reale variazione significativa nel tempo o nello spazio. | Ottimizza ulteriormente il flusso dati eliminando eventi duplicati o non informativi generati da un’unica causa (es. un movimento ampio). Questo riduce il carico di elaborazione e migliora la qualità dei dati inviati al sistema. |
| Anti-flicker Filter | Utile in ambienti con luci intermittenti (es. LED a 50/60 Hz). | Elimina gli eventi generati dallo sfarfallio delle luci artificiali, che altrimenti inonderebbero il flusso dati di informazioni irrilevanti. Cruciale per applicazioni in ambienti industriali o commerciali con illuminazione a LED o fluorescente. |
| Region of Interest (ROI) | Permette di selezionare specifiche porzioni del sensore su cui concentrarsi, o escludere aree non rilevanti (RONI), per ottimizzare ulteriormente il flusso dati | Consente di concentrare la rilevazione solo dove serve, evitando la generazione di eventi inutili in zone statiche o irrilevanti. Questo riduce il volume di dati e la potenza di elaborazione richiesta, migliorando l’efficienza complessiva del sistema. |
Come vengono elaborati e trasmessi i dati evento
I dati generati non sono immagini tradizionali, ma stream asincroni di eventi, che rappresentano solo le variazioni luminose rilevate dai pixel. Per visualizzarli, si utilizzano strumenti che aggregano i dati su finestre temporali, come i CD Frame (Contrast Detection Frame): rappresentazioni bidimensionali degli eventi positivi e negativi in un certo intervallo di tempo.
Il formato di trasmissione più comune è EVT 3.0, sviluppato da Prophesee, ottimizzato per compattezza e velocità. I dati vengono inviati tramite GigE Vision e sono compatibili con due ambienti software:
– Arena SDK di LUCID: per controllo, visualizzazione e post-processing.
– Metavision SDK di Prophesee: include plugin HAL per semplificare il controllo della telecamera.
Esempio pratico: Triton2 EVS con sensori Sony Event-Based
La Triton2 EVS, dotata dei sensori Sony IMX636 e IMX637, rappresenta una delle implementazioni più avanzate della tecnologia event-based. Progettata per gestire scene complesse in tempo reale, combina un’interfaccia 2.5GigE ad alte prestazioni con la compatibilità GenICam, facilitando l’integrazione nei sistemi industriali esistenti.
La telecamera offre numerose opzioni di configurazione, tra cui filtri anti-flicker, controllo preciso del tasso di eventi e definizione avanzata delle aree di interesse. Grazie a queste caratteristiche, Triton2 EVS si dimostra particolarmente efficace in applicazioni come l’ispezione ad alta velocità, il tracciamento in ambienti dinamici, la robotica collaborativa e in contesti con illuminazione scarsa o instabile.
Versatile, performante e altamente personalizzabile, è una soluzione concreta per portare l’analisi visiva verso un nuovo standard di precisione e reattività.
Quando si usa la visione event-based: casi d’uso e applicazioni tipiche
L’approccio event-based non è pensato per sostituire in toto le telecamere frame-based, ma per affiancarle o sostituirle in scenari dove la velocità, la sensibilità alla luce e la gestione dei dati sono critici.
Ecco alcune situazioni in cui questa tecnologia offre vantaggi concreti:
– Rilevamento di oggetti in rapido movimento
Nelle linee di produzione ad alta velocità, dove oggetti scorrono a ritmi che rendono difficile una cattura frame-by-frame, una telecamera event-based consente di rilevare variazioni minime e di registrare eventi in tempo reale, anche durante transizioni brevissime.
– Monitoraggio in ambienti scarsamente illuminati
In condizioni di bassa luminosità o forte contrasto (ad esempio in magazzini, laboratori o all’aperto di notte), i sensori event-based continuano a generare eventi anche con minime variazioni di luce, mantenendo l’informazione utile dove una telecamera tradizionale fallirebbe.
– Tracciamento di oggetti in ambienti dinamici
Nella robotica mobile o collaborativa, dove è fondamentale riconoscere e reagire rapidamente a spostamenti improvvisi, la visione event-based garantisce tempi di risposta estremamente rapidi, migliorando la sicurezza e la precisione del sistema.
– Analisi di fenomeni temporali o transitori
Per applicazioni in cui è importante misurare la durata o la frequenza di variazioni (ad esempio lo sfarfallio di una sorgente luminosa, la vibrazione di un componente, la variazione di uno stato), i dati evento permettono di osservare in dettaglio il comportamento nel tempo, senza bisogno di acquisire immagini complete.
– Riduzione del carico dati e ottimizzazione del sistema
In sistemi edge o con larghezza di banda limitata, trasmettere solo ciò che cambia permette di ridurre il traffico dati e ottimizzare le risorse, pur mantenendo l’efficacia del controllo visivo.
In tutti questi casi, l’adozione di una telecamera event-based non solo migliora l’affidabilità del sistema visivo, ma consente anche una gestione più sostenibile dei dati e delle risorse computazionali.

Vuoi sapere se questa tecnologia è adatta alla tua applicazione?
Contattaci per una consulenza oppure visita la sezione telecamere industriali per scoprire tutte le soluzioni disponibili.
🎓 Per approfondire gratuitamente i temi della machine vision con video tutorial e training tecnici ➡️ iscriviti subito all’ area privata!
SCHEDE DEI PRODOTTI
Diventa un esperto di Visione Artificiale con i corsi in presenza di Visionlink Vision Academy


