Gettare l’ancora in profondità senza danneggiare il fondale: si può grazie a boe e algoritmi- Corriere.it

2023-02-22 17:10:24 By : Mr. Gavin Song

Oltre i 60 metri è buio . I sub, in profondità, non vedono più. Nella colonna d’acqua, a distanze diverse dalla superficie, vengono assorbiti raggi di luce differenti e, intorno ai 60 metri, si percepiscono solo le sfumature del blu che perdono i contorni all’avvicinarsi al fondale, fino a confondersi con il nero degli abissi. Questa scansione metrica per l’occhio umano è molto variabile: torbidezza dell’acqua, condizioni metereologiche e altri fattori influiscono sulla visibilità in mare. Da una barca, poi, la capacità di visualizzare il fondale diminuisce di gran lunga. In fase di ancoraggio, questo può causare danni all’ecosistema, a praterie di posidonia, barriere coralline e popolazioni animali.

Il progetto VisionAnchor rappresenta un nuovo passo nella ricerca per la mappatura delle profondità degli oceani. Con lo “Smart anchoring system” si difendono posidonia, barriere coralline e pesci

Con un algoritmo e alcune immagini scattate da boe, è possibile avere una visuale più chiara di ciò che c’è sul fondo e capire dove gettare l’ancora: lo Smart Anchoring System è costituito da un sistema di boe che catturano lo stato dei fondali e comunicano con una tecnologia di classificazione automatica delle immagini sulla base di alcune caratteristiche – presenza di sabbia, rocce, relitti, vegetazione – codificate con l’intelligenza artificiale. Il progetto VisionAnchor si è concluso con la fine del 2022 e ha visto la startup slovena SeaVision – responsabile della creazione e della commercializzazione della boa – collaborare con il centro di innovazione digitale Cefriel e con due studenti del Politecnico di Milano e dell’Università di Milano-Bicocca, nell’ambito delle attività supportate da Eit Digital.

Le immagini ricavate, in seguito, possono essere sottoposte a un algoritmo di Image Segmentation per individuare e rimuovere l’ancora dall’immagine catturata, così da perfezionare e bilanciare i colori dello scatto. Una risoluzione migliore può fornire informazioni più precise all’utente – che a breve potrà usufruire di un’app di raccolta di questi dati pensata anche per schedare le ancore già presenti – e darebbe ai ricercatori uno strumento aggiuntivo nell’analisi dei mari. «L’algoritmo potrebbe avere molteplici applicazioni anche legate alla sostenibilità ambientale», ha spiegato Alfonso Fuggetta, Ad e direttore scientifico di Cefriel, «quali, per esempio, l’individuazione e mappatura di relitti o la segnalazione di eventuali rifiuti presenti nei fondali, magari con l’obiettivo di migliorare lo stato di salute di alcune zone marine ». Un obiettivo ambizioso che prolungherebbe le ricerche e richiederebbe ulteriori investimenti. «È notevole l’interesse che abbiamo per questo progetto», commenta Valeria Molero Coletta, Coordinator della Practice Analytics and Ai. «Si tratta di un ambito di ricerca complesso. Sicuramente proseguiremo con altre sperimentazioni che possano essere di interesse per la collettività ».

Non solo per trovare le ancore perse o proteggere il mare, dunque. Già il 20 ottobre scorso è rientrata in porto Gaia Blu, la nuova nave oceanografica del Cnr donata dallo Schmidt Ocean Institute, nata Falkor e progettata per la protezione della pesca ma dotata di strumenti avanzati per la mappatura morfologica degli abissi che le hanno permesso di fotografare oltre 1,3 milioni di chilometri quadrati di fondali oceanici nei più di 12 giri del mondo compiuti. La spedizione nostrana ha consentito la mappatura di quasi 5mila chilometri quadrati marini di fronte alla città di Napoli e alla Costiera amalfitana. Conosciamo in maniera approfondita solo il 23 per cento degli oceani, che coprono il 70 per cento della Terra. Ogni tassello nella creazione di un atlante globale dei fondali ci avvicina al traguardo della tutela di un ambiente fondamentale per il benessere nostro e del pianeta.