REXASI-PRO compie un anno

da | Nov 9, 2023

Spindox Labs, coordinatore del progetto europeo, REXASI-PRO, mira al rilascio di un sistema di navigazione sociale autonomo per persone in condizioni di ridotta capacità motoria

Cronaca ravvicinata di un anno di ricerca

Uno, due, tre use case. Dieci partner di progetto da sei differenti Paesi. Dodici mesi di lavoro. Sono alcuni dei numeri di REXASI-PRO, progetto triennale il cui acronimo sta per REliable & eXplAinable Swarm Intelligence for People with Reduced mObility.

Si è tenuta a Trento gli scorsi 9 e 10 ottobre la prima General Assembly. Trenta i convenuti in rappresentanza di partner chiamati al confronto interno sullo stato di avanzamento delle attività ad un anno dal loro avvio. Oltre a un workshop tecnico su strumenti e metodologie in uso in ambito progettuale, l’ordine dei lavori ha previsto anche una Light Review da parte di revisori esterni.

REXASI-PRO è infatti stato finanziato dalla Commissione Europea nell’ambito del programma Horizon Europe – Research and Innovation Actions. Il progetto mira a rilasciare un quadro ingegneristico per dispositivi mobili destinati allo spostamento autonomo di persone dalla ridotta capacità motoria.

Use case e stato dell’arte

La messa a punto di un sistema di navigazione sociale basato su veicoli guidati da Intelligenza Artificiale ha previsto nel corso del primo anno la definizione di tre casi d’uso:

– Sedie a rotelle dotate di sensori di bordo, le quali, su input dell’utente, si muovono, al chiuso o all’aperto, in ambienti più o meno affollati.

– Droni deputati allo studio degli ambienti e alla loro scansione per poter generare mappe 3D e digital twin a fini di simulazione.

– Un sistema di navigazione collaborativa risultante dalle informazioni dei precedenti casi d’uso che sia in grado di assicurare un’esperienza confortevole e sicura, anche in situazioni di emergenza.

Al giro di boa dei dodici mesi, lo sviluppo del primo use case è da considerarsi ben avviato. Ciò in considerazione della parte hardware e software del driving assistant, della robustezza del people tracker, degli esperimenti di navigazione  condotti in ambienti chiusi. Per il secondo use case gli approfondimenti in corso sono volti, per un verso, ad ottimizzare l’esplorazione degli spazi dal punto di vista del tempo impiegato dai droni e del relativo consumo di energia. Per altro verso, sono incentrati sulla ingegnerizzazione della tecnologia, in funzione di una sua accresciuta accettabilità sociale, con droni meno voluminosi e provvisti di una carenatura più leggera.

Intelligenza Artificiale, etica e comunità scientifica

Nella stessa direzione si è posta l’elaborazione di un quadro di riferimento per la valutazione delle questioni etiche correlate allo sviluppo del sistema, in tutte le sue fasi. Un sistema chiamato a porre al centro l’esperienza dell’utente finale, considerando anche l’eventualità che questi appartenga a gruppi potenzialmente vulnerabili o a rischio di esclusione.

L’apertura alla comunità scientifica ha accompagnato le fasi di ricerca sin da subito. Lo attesta la partecipazione di membri del team a conferenze e forum internazionali in Europa (Siviglia, Salonicco, Lisbona, Santiago de Compostela, Utrecht) e Stati Uniti (San Antonio). O, ancora, il coinvolgimento degli studenti dei corsi universitari attraverso forme laboratoriali. Buone pratiche di confronto allargato inaugurate nel marzo scorso dal Clustering Workshop Establishing the next level of “intelligence” and autonomy, che ha visto protagonisti i progetti rientrati nel programma Horizon Europe attraverso la medesima misura di finanziamento: A Human Centred and Ethical Development of Digital and Industrial Technologies.

Comunicare la trustworthiness

La sezione news del sito web si è fatta strumento di una comunicazione aggiornata sull’andamento della ricerca nel corso dei mesi. Non solo perché richiesto dagli adempimenti di progetto. O perché, ancora, il nodo del conciliare il know-how dei technology provider coinvolti con le esigenze dettate dalla trustworthiness si conferma la più progressiva delle sfide. Ma perché proprio questo tema, quello della trustworthiness, resta fondativo in Unione Europea per qualsiasi sistema di AI riconoscibile come legalmente affidabile, aderente a principi etici non derogabili, capace nel proprio sviluppo di dimostrarsi tanto robusto da poter escludere il verificarsi di danni anche non intenzionali. La cura nella comunicazione di questo aspetto è da considerarsi centrale nel caso di REXASI-PRO e lo sarà sempre più per Spindox.

Francesco Altamura
Francesco Altamura
Storico di formazione e archivista per attitudine, dopo il dottorato ha lavorato per fondazioni e istituti di ricerca. Sempre sulle tracce della modernità industriale, si sforza di mantenere uno “sguardo contemporaneo, per le cose lontane”.

Potrebbe piacerti anche

L’AI Act è fatto. Ora facciamo l’AI

L’AI Act è fatto. Ora facciamo l’AI

L’UE ha approvato l’AI Act, che entrerà in vigore per gradi. Alla sua base, il principio di conformità alla legge e la classificazione dei sistemi secondo il rischio. Ma se fosse troppo presto per regolare il futuro dell’intelligenza artificiale con un grande regime normativo?