MELA è una linea dimostrativa che replica un impianto automatizzato per il controllo qualità e la selezione delle mele. Progettata a partire da esigenze reali raccolte dal settore food, rappresenta un concentrato di innovazione: integra nove stazioni di visione artificiale 2D e 3D, ciascuna specializzata in un compito specifico, insieme a robot collaborativi UR e ad AMR di Zebra Technologies.
Il risultato è una simulazione realistica di un processo di ispezione automatizzata, capace di analizzare ogni frutto con precisione e di instradarlo verso il canale più adatto, migliorando qualità e tracciabilità lungo tutta la filiera.

Linea DEMO MELA
In ambito alimentare, e in particolar modo nel settore del fresco, la qualità è un requisito fondamentale, imprescindibile. Per la frutta, in particolare, parlare di qualità significa riferirsi a una combinazione di fattori che, oltre alle caratteristiche organolettiche, riguardano anche la percezione visiva e gli aspetti funzionali.
Prendiamo ad esempio una mela. Prelevare un frutto da una cassetta contenente mele che appaiono uniformi per colore, forma e dimensione, nonché assenti da imperfezioni – come ammaccature, macchie o marciumi – è senz’altro un’esperienza che al piacere dell’acquisto unisce la percezione di aver scelto un ottimo prodotto, anche dal punto di vista della sua consistenza e conservabilità. Per garantirne l’eccellenza, ogni mela deve essere ispezionata con la massima precisione prima di essere instradata verso i canali che la porteranno sulle tavole dei consumatori.
In questo contesto, l’innovazione tecnologica gioca un ruolo cruciale. Per efficientare il processo di selezione, la tecnologia di visione 2D e 3D, insieme all’impiego della robotica collaborativa, si rivela una soluzione vincente, poiché permette di identificare e selezionare i frutti con una velocità e precisione che, manualmente, non sarebbe possibile.
Il valore dell’automazione nel controllo qualità
In questo scenario, la tecnologia gioca un ruolo fondamentale. La visione artificiale 2D e 3D, combinata con la robotica collaborativa, consente di identificare e selezionare ogni frutto in modo rapido, preciso e ripetibile. Un processo che supera i limiti dell’ispezione manuale, migliorando efficienza e affidabilità.
Realizzata in collaborazione con Mechatronic (system integrator in ambito automazione), Lexter Italia (distributore degli AMR di Zebra Robotics) e Montech AG (produttore di nastri trasportatori modulari), la linea riproduce un impianto automatico di controllo qualità per la frutta, utilizzando come esempio proprio delle mele.
La demo MELA è una straordinaria simulazione che integra tecnologie avanzate di visione artificiale 2D e 3D per task di quality control, unitamente ad alcuni robot collaborativi e a una coppia di AMR per le operazioni di manipolazione dei frutti e movimentazione delle ceste.
Concepita per mostrare applicazioni ispirate a richieste reali del settore food, MELA ha finalità dimostrative e non riproduce i ritmi produttivi di un vero impianto.
Tecnologie di visione artificiale utilizzate
Le varie stazioni che compongono la linea si snodano lungo una struttura ad anello, sulla quale scorrono una serie di mover che trasportano i frutti tra le varie postazioni.
Tutti i supporti meccanici applicati ai mover sono stati progettati per garantire il posizionamento ottimale del frutto, cioè evitando il rischio di caduta durante le fasi di arresto e ripartenza. Questi supporti, sviluppati per adattarsi a questo frutto, sono ideali anche per qualsiasi altro oggetto di forma rotondeggiante e assicurano il massimo accesso visivo per un controllo accurato da più angolazioni.
A sostegno del trasporto tra una postazione e l’altra è stato integrato un sistema a transfer LTE, una soluzione modulare e flessibile che contribuisce a mantenere fluida e ordinata la movimentazione lungo la linea.
Il processo simulato dalla linea dimostrativa MELA prende il via con un AMR Connect di Zebra Robotics che trasporta un cestello contenente le mele verso una prima stazione di bin picking, dove un cobot Universal Robot UR10 le estrae e le posiziona sul mover.

AMR Zebra Connect
La prima stazione di visione si trova integrata direttamente sul polso del cobot UR10. Si tratta di uno scanner 3D Zebra 3S80 che, dopo aver analizzato la posizione esatta di ogni frutto, trasmette i relativi dati al cobot, consentendogli di afferrare la mela con un gripper a ventosa. Questa prima stazione è un esempio di perfetta simbiosi tra automazione intelligente e visione avanzata, due tecnologie che, se opportunamente integrate, garantiscono ottimi risultati in termini di precisione ed efficienza.

Stazione 1 – Scanner 3S80 Zebra per il rilevamento 3D del posizionamento delle mele
La seconda e terza stazione di visione della linea MELA
Dopo aver prelevato il frutto dalla cesta, il cobot lo ruota davanti alla stazione di visione numero 2, equipaggiata con una telecamera The Imaging Source DFK33GX547. Lo scopo di questa operazione è quello di analizzare l’integrità del lato della mela che risulterà appoggiato al supporto. L’analisi viene svolta servendosi di un algoritmo di deep learning basato su una rete CNN (Convolutional Neural Network).

Stazione 2 – Telecamera The Imaging Source DFK33 per ispezione 2D con deep learning
Le reti CNN sono una soluzione tecnica particolarmente adatta alle operazioni di controllo qualità, in quanto permettono di riconoscere difetti e anomalie con un’elevata precisione, classificare oggetti e superfici in base a specifici criteri, nonché migliorare le prestazioni nel tempo grazie all’apprendimento continuo dai dati. In questo specifico caso, la seconda stazione di visione, grazie alla manipolazione del cobot, permette di individuare la presenza di eventuali difetti che non solo potrebbero sfuggire a una semplice ispezione visiva standard, ma anche alle successive stazioni di controllo.
Il mover su cui si trova la mela transita quindi verso la terza stazione di visione, dove è posizionata una telecamera lineare Hikrobot MV-CL044-91NC che esegue una scansione in movimento per verificare la corretta presenza del bollino e la lettura del codice.

Stazione 3 – Verifica del corretto posizionamento dell’etichetta con scansione lineare
Vedere l’invisibile: la stazione di visione numero 4
La mela giunge così alla stazione numero 4, dove l’ispezione qualitativa si spinge oltre lo spettro del visibile grazie all’impiego di una telecamera SWIR (Short-Wave Infrared). Montata sul polso di un secondo robot collaborativo, di taglia più piccola, la telecamera Lucid Vision Triton SWIR TRI003S-WC, in abbinata all’illuminatore SWIR TMS Lite, consente di individuare danni apparentemente invisibili, imperfezioni che ad occhio nudo sarebbero difficili, se non impossibili, da rilevare perché nascoste sotto la buccia.

Stazione 4: Controllo delle difettosità interne con telecamera Triton SWIR
Ma come funziona un sistema di visione in tecnologia SWIR?
Un piccolo urto o un’ammaccatura apparentemente innocua possono compromettere la struttura interna del frutto, accelerandone il deterioramento con un aumento della concentrazione di acqua libera. Il risultato? Una perdita di croccantezza e sapore del frutto, con un inevitabile peggioramento delle sue qualità organolettiche.
La presenza di una maggiore quantità di acqua nei tessuti ammalorati rispetto a quelli sani comporta un più intenso assorbimento della radiazione SWIR, il che genera, come risultato, un contrasto molto netto nelle immagini acquisite dalla telecamera che, analizzate da un algoritmo che si avvale – anche in questo caso – di una rete neurale avanzata, classifica il frutto come idoneo o da scartare.
I successivi rilevamenti: le stazioni di visione numero 5, 6 (multi telecamera) e 7
Effettuati i controlli necessari ad assicurare l’idoneità del frutto, il mover entra nella stazione di visione numero 5, dove opera uno scanner laser Zebra Altiz che rileva in tempo reale il volume della mela e i suoi principali parametri geometrici, ovvero la sua conformazione.

Stazione 5 – Scanner Zebra Altiz per controllo volumetrico 3D della mela
Nella successiva stazione, la numero 6, viene effettuata una nuova ispezione generale del frutto, mediante un sistema multicamera composto da tre diverse telecamere colore che effettuano una mappatura a 360 gradi della mela, rilevando in particolare la sua superficie laterale e la parte superiore, dove si trovano la cavità peduncolare e il picciolo. Le telecamere utilizzate sono le seguenti: Lucid Vision Triton2 TRIO325-CC, Hikrobot MV-CS032-60GC e The Imaging Source DFK33GX264.

Stazione 6: Ispezione multi-telecamera 360°
L’utilizzo di tre telecamere di tre differenti produttori non è affatto casuale: lo scopo della linea MELA è quello di dimostrare la versatilità del sistema, all’interno del quale possono essere integrati non solo modelli diversi, ma addirittura prodotti di più vendor.
Anche in questo caso, l’identificazione di eventuali anomalie è affidata ad un algoritmo di deep learning, che si avvale di una rete neurale CNN. Una tecnologia analoga viene utilizzata anche nella stazione numero 7, dove si trova installata una smart camera Zebra Iris GTX a colori, equipaggiata con una rete convoluzionale di classificazione mediante la quale le mele vengono suddivise per tipologia: una funzionalità che risulta utile al corretto smistamento dei frutti, in base, ad esempio, alle loro colorazioni e dimensioni.

Stazione 7 – Smart camera Zebra IRIS GTX per classificazione automatica con deep learning
Il fine linea: le stazioni di visione numero 8 e 9
Sul fine linea, integrata sul polso del terzo robot collaborativo di cui si avvale la linea demo MELA, si trova la stazione numero 8. Il robot che preleva il frutto dal mover utilizza una telecamera a tempo di volo (ToF, Time of Flight) Lucid Vision Helios+ per verificare il livello di riempimento delle ceste, all’interno delle quali le mele vengono delicatamente posizionate dal cobot.

Stazione 8 – Telecamera 3D ToF Lucid Vision Helios2 per verifica del riempimento delle cassette
Un’ultima stazione di visione, la numero 9, è posizionata fuori linea e consta di un lettore di codici alfanumerici ad alte prestazioni Zebra FS42 con sistema di lettura OCR DL, che ha il compito di leggere le etichette posizionate sulle cassette movimentate dall’AMR Zebra Connect. In questo modo, la tracciabilità del prodotto risulta completa, comprendendo anche il rilevamento delle ceste che, in relazione a tutte le operazioni che si svolgeranno a valle, mantengono una precisa identità digitale.
Un unico semplice ambiente di sviluppo: ADA
Tutte le applicazioni di machine vision che riguardano le 9 stazioni che ospitano le varie telecamere precedentemente descritte, sono state sviluppate avvalendosi di un’unica piattaforma: Zebra Aurora Design Assistant (ADA).
Aurora Design Assistant è un IDE (Integrated Development Environment, ambiente integrato di sviluppo) che permette la realizzazione di applicazioni di visione il cui runtime può girare indifferentemente su PC o su un controller di visione, come ad esempio lo Zebra 4Sight.
ADA opera in ambiente Microsoft Windows ed è stato concepito per facilitare la programmazione attraverso un approccio grafico intuitivo, riducendo al minimo la necessità di scrivere codice nei linguaggi tradizionali. Grazie alla sua versatilità, consente di interfacciare facilmente telecamere 2D e 3D di qualsiasi tecnologia e produttore, offrendo strumenti avanzati per lo scambio dati con le applicazioni industriali.
Alcune note sulle scelte progettuali
La linea dimostrativa MELA è stata progettata prendendo spunto dalle tipiche esigenze che caratterizzano un’applicazione reale. Per questo motivo, oltre alle funzionalità specifiche riguardanti gli aspetti di ispezione automatizzata, la linea è stata progettata con l’obiettivo di realizzare un sistema funzionale, rapido da assemblare e che al tempo stesso permetta ai visitatori dello stand la migliore esperienza, con la possibilità di osservare da vicino ogni fase del processo.
La modularità del sistema ne permette lo spostamento e/o la riconfigurazione in tempi molto rapidi, anche grazie all’ergonomia dei cablaggi, sia elettrici che pneumatici, che si trovano integrati all’interno delle quattro stazioni su ruote che sorreggono ciascuno dei tre conveyor sui quali scorrono i mover.
I vincoli legati agli ingombri ridotti e alla necessità di disporre di robot in grado di operare collaborativamente, ovvero anche con possibili interferenze provocate dai visitatori, ha portato a optare per l’impiego di unità cobot UR. Sulla prima e sull’ottava stazione della linea sono stati utilizzati due cobot Universal Robot UR10e, con payload di 12,5 Kg e sbraccio 1300 mm. Per la stazione numero 4 si è invece optato per un UR3e, un cobot di dimensioni contenute con payload di 3Kg e 500 mm di sbraccio, sul cui polso è assicurata la telecamera SWIR (Short-Wave Infrared) di Lucid Vision Triton con il relativo illuminatore.
Il progetto MELA è stato realizzato grazie alla collaborazione tra:
Machine Vision – Visionlink Srl, Via Marco Polo 22, 20831 Seregno (MB)
Automazione e Robotica – Mechatronic Srl, Via Don G. Allamano 10, 23884 Castello di Brianza (LC)
Integrazione AMR – Lexter Italia, Via Nervesa 2, 20139 Milano.
Sistema di movimentazione – Montech AG, Gewerbestrasse 12, 4552 Derendingen Svizzera
I prodotti utilizzati
Stazione 1: Scansione a luce strutturata
Prelievo della mela dalla cassetta con scanner Zebra 3S80.
Software: Zebra Aurora Design Assistant.
Controller: Zebra 4Sight EV7.
________________________________________
Stazione 2: Visione 2D con Deep Learning
Ispezione del lato nascosto della mela con telecamera DFK33 The Imaging Source, illuminatore HLSW Visionlux e ottica Tamron M112.
Software: Zebra Aurora Design Assistant.
________________________________________
Stazione 3: Scansione lineare
Verifica del corretto posizionamento dell’etichetta con telecamera line scan MV-CL044 Hikrobot, ottica lineare MVL-AF2045M Hikrobot e illuminatori SpecBright Line Light Prophotonics.
Software: Zebra Aurora Design Assistant.
________________________________________
Stazione 4: Ispezione IR (SWIR)
Controllo delle difettosità interne con telecamera Triton SWIR Lucid Vision Labs, ottica Tamron SMA11F12 SWIR e illuminatore anulare a LED SWIR F-HPD3 TMS-Lite.
Software: Zebra Aurora Design Assistant.
________________________________________
Stazione 5: Scansione 3D a triangolazione laser
Controllo volumetrico della mela con profilometro Altiz Zebra.
Software: Zebra Aurora Design Assistant.
________________________________________
Stazione 6: Ispezione multi-telecamera 360°
Mappatura completa della mela con tre telecamere a colori: Triton Lucid Vision Labs, MV-CS050 Hikrobot, DFK33 The Imaging Source. Ottiche Fujinon DF6HA-1S, illuminatori HLSW Visionlux.
Software: Zebra Aurora Design Assistant.
________________________________________
Stazione 7: Classificazione con Deep Learning
Smistamento delle mele in base a colore e morfologia con smart camera IRIS GTX Zebra, ottica OPTOWL FL-CC0614A e illuminatore HLSW Visionlux.
Software: Zebra Aurora Design Assistant.
________________________________________
Stazione 8: Visione 3D Time of Flight (ToF)
Verifica del livello di riempimento delle cassette con telecamera 3D ToF Helios2 Lucid Vision Labs.
Software: Zebra Aurora Design Assistant.
Controller: Zebra 4Sight EV7.
________________________________________
Stazione 9: Lettura codici e OCR con Deep Learning
Lettura di etichette alfanumeriche sulle cassette con lettore ad alte prestazioni Zebra FS42.
Software: Zebra Aurora Design Assistant.
SCHEDE DEI PRODOTTI