Fidagarritasuna, definizioz, justifikatuta fidatzeko moduko zerbitzua emateko gaitasuna da. Gidatze autonomoko aplikazioen kasuan, akatsek pertsonei edo gidatze-sistema berari kalteak eragin badiezazkiekete, funtsezkoa da fidagarritasunaren kontzeptua ziurtatzea garapenaren lehen etapetatik. Prozesu hori sistemaren osagaien eredu abstraktuak egitean eta, ondoren, haien portaera simulatzean oinarritzen da, eta espero den fidagarritasuna lortzeko aukera emango diguten analisi-, egiaztapen- eta baliozkotze-prozesuak ezartzen ditu.

Osagai bakoitzaren ereduaren garapena abstrakzio-maila desberdinetan oinarritzen da, haren portaera errealera ahalik eta hobekien hurbiltzen dela bermatzeko. Prozesu horretan, hainbat modelatze- eta simulazio-ingurune erabili ohi dira, hala nola MATLAB/Simulink edo Dymola. Hala ere, horrek arazoak sor ditzake sistema komunikazio-interfazearen bidez globalki egiaztatzeko orduan edo ingurune batetik bestera modeloak eramatean. Arazo hori konpontzeko, Ikerlanek simulazioko interfaze generiko bat garatu du, jabe ez den Distributed Co-simulation Protocol (DCP) estandarrean oinarritua, AUTOEV@L proiektuaren esparruan. Interfaze honen bidez, komunikazio estandarizatua lortu nahi da, simulazio-inguruneen artean ez ezik, sistema horiek aztertzen, egiaztatzen eta baliozkotzen lagunduko duten hardware plataformen artean ere. Emaitzak IEEE access aldizkarian argitaratu dira.

Aldi berean, bermatu behar da sistema inplementatzen den sistema txertatuetan gertatzen diren akatsak arintzea eta kontrolatzea, egoera katastrofikoetara eraman ez daitezen. Segurtasun funtzionala deitzen zaio fidagarritasunaren ezaugarri horri. Segurtasun funtzionalarekin zerikusia duten sistemak garatzeko prozesua gidatzen duten zenbait estandar daude, eta prozesu horren funtzionamendu egokia bermatzeko eskakizunak, teknikak eta neurriak definitzen dituzte. Aplikazio-eremuaren araberako adibide batzuk hauek dira: IEC 61508 estandarra (industria-sektorea) edo ISO 26262 estandarra (automobilgintza). Hala ere, gidatze autonomoko sistemen konplexutasunak errendimendu handiko plataforma konputazionalak eskatzen ditu, eta, horretarako, GPU bezalako azeleragailuak integratzen ditu, estandar horietan aurreikusi gabeko paralelizazio-maila handia dutenak. Horrez gain, adimen artifizialaren erabilera ere ez da kontuan hartzen; izan ere, gidatze autonomoko sistemek gero eta zehatzago egiten dituzte funtzio konplexuak, hala nola, gidatze autonomoan funtsezkoak diren objektuak detektatzea.

Arazoari aurre egiteko lehen urrats gisa, IKERLANek bermatu du errendimendu handiko plataformetan adimen artifiziala duten segurtasunarekin lotutako sistemen softwarea modu seguruan hedatzea. Horretarako, diagnostikoen katalogo bat diseinatu eta inplementatu du matrizeen biderketaren konputazioa egitean erroreak detektatzeko, osagai giltzarria baita konboluzio-sare neuronaletako konputazio-denborari dagokionez (CNN, ingelesezko siglak). Halaber, diagnostiko-katalogo horren bidez GPUetan ezarritako CNNak selektiboki babesteko metodologia bat diseinatu da, eta CNNetan oinarritutako objektu-detektagailu bat ezarri da Tiny YOLO v3-n. Ekarpen horren emaitzak International Conference on System Reliability and Safety 2022an aurkeztu dira.

Azkenik, aipatu behar da AUTOEV@L proiektuan lortutako esperientziak gaur egun martxan dagoen SAFESPLAIN europar proiektua prestatzen lagundu duela. Adimen artifizialaren erabilera inplikatzen duten sistemen segurtasun funtzionalaren ikuspegitik ziurtatzean oinarritzen da proiektu hau. Gainera, 2023an Tolosan (Frantzia) egingo den HIPEAC biltzarrean AUTOEV@L en lortutako emaitzak zabaltzea aurreikusten da, gai horretan egindako aurrerapenak ikusarazteko.