Tine Baert over A.I.: ‘wees gerust, er kan altijd een stekker uit’

Praten met veiligheidskundigen is een feest, helemaal met Tine Baert. Deze Vlaamse preventieadviseur is enthousiast, betrokken en uiterst geduldig. Dat is opmerkelijk, want haar agenda zit boordevol meetings, waarvan vele via Zoom. Al met al is ze rázend druk met grote en kleine projecten, op dit moment vooral voor Seaway Heavy Lifting, een opdracht die ze kreeg via ESP Renewables. Inderdaad, dat is het bedrijf van Jesse Don, onze vorige stokpaardruiter, die Tine bij ons voordroeg. Ons estafettesysteem leidt niet tot een informatiebubbel, want Tine heeft nauwelijks gerept over haar offshore energieprojecten of over windturbines. Wel over kunstmatige intelligentie.

Biografie
Tine Baert (1992) is Vlaamse van geboorte. Ze woont meestal in Kortrijk en werkt waar het uitkomt, als preventieadviseur niveau 1 of een van de internationale equivalenten daarvan. Ze is nog steeds onder de indruk van de afwisseling die haar job haar biedt. Het is mannenwerk, dat nimmer door een vrouw gedaan zou kunnen worden, althans zo beweerde haar vader vroeger. Want ‘op de bouw wordt niet naar vrouwen geluisterd’. Papa had zich diep in zijn hart eigenlijk drie zonen gewenst, maar het werden drie dochters. Ten zeerste gekoesterd, dat zeker. Voor de dochters had dat wel tot gevolg dat er gevoetbald moest worden en dat Tine noodgedwongen fan werd van het autoprogramma Top Gear. En de studie bouwkunde aanvatte. Na die opleiding werkte ze korte tijd in het vastgoed in Zuid-Afrika en werd ze preventieadviseur, na gevoelige afweging van deze studierichting tegen de opleiding tot ‘veiligheidscoördinator’ (een in de Belgische bouwsector gebruikelijker functionaris met een iets andere rechtspositie dan de preventieadviseur). Haar veiligheidskundige rollen speelde ze aanvankelijk bij Douwe Egberts, Delhaize Group (nu één met Ahold) en – tot verbijstering en tevens genoegen van haar vader – bij Jan de Nul, een groot internationaal opererend waterbouwbedrijf uit Capellen. In coronatijd was nóg een project met langdurig verblijf in het verre Azië niet haar liefste wens, dus richtte ze in 2021 haar eigen bedrijfje op. Zo kon ze in elk geval zelf bepalen welke karweitjes ze waar en wanneer ging doen. Inmiddels staat Theriskybusiness keurig ingeschreven bij de Belgische Kamer van Koophandel en heeft ze karweitjes voldoende, met als gevolg dat de website nog in de steigers staat. First things first.


Tine: ‘Ja, sorry, duizendmaal excuses maar ik was even vergeten dat het Goede Vrijdag was. Ik zit op mijn elektrische fiets net over de grens en da’s niet zo handig voor een interview.’ Dat was de eerste telefonische kennismaking met Tine Baert, die tekenend is voor haar volle agenda en haar vermogen om haar aandacht volledig te richten op het werk, ook als De Veiligheidskundige aangekondigd aanklopt voor een ongedwongen gesprek waar vooral niets aan voorbereid mag worden. Tine is momenteel HSEQ Engineer bij Seaway 7, met als standplaats Zoetermeer. Het werk zelf betreft het Kaskasi project, een windmolenpark ergens ten noorden van Duitsland. Dat is een 342 megawatt groot windturbinepark dat in opdracht van het Duitse RWE wordt gebouwd, met Tine als veiligheidskundig geweten. Vlak na het interview mag ze zich op het volgende project richten, ergens in Frankrijk.

Tine: ‘Veiligheid is in de offshore business allang geen bijzaak meer. Al voordat we projecten opstarten worden health & safety requirements opgesteld door klanten, opdrachtgevers en hoofdaannemers. Tot in detail. In de contracten is precies vastgelegd wat er allemaal geregeld en geborgd moet zijn, wat voor meetings er gaan zijn en welke opleidingen alle functionarissen moeten hebben gevolgd en hoe vaak en wanneer die herhaald moeten worden. Ik hoef niet meer zoals vroeger bij directies aan te dringen op het opstellen van veiligheidsjaarplannen, proposities, zevenjaarsprognoses en risicobeoordelingen. Veiligheid is vast onderdeel van letterlijk élke meeting, zelfs de financiële besprekingen en contract meetings beginnen ermee. Soms kan er ook nog een quality moment zijn voorgeschreven. Enerzijds heb ik aan zeventig uur in de week nog niet genoeg om dat allemaal bij te houden, anderzijds kan ik me bijna niet meer voorstellen hoe het is om bij een ‘gewoon’ productiebedrijf te werken.’

 Je bent Veiligheidsadviseur niveau 1, wat een typisch Belgische kwalificatie is. Je werkt in Nederland, waar men de MVK, HVK en IVK gewend is. Kan dat zomaar?
‘In de Nederlandse wetten heb ik me vreemd genoeg nog niet echt hoeven te verdiepen omdat mijn projecten zich altijd in het buitenland bevonden. Azië, Denemarken, Duitsland. Maar ik heb er recentelijk nog met wat Nederlandse collega’s over gedebatteerd. In België kennen we een strikte structuur. De wet, Codex Boek II titel 1, bevat zelfs een uitgebreide matrix die aangeeft welk niveau preventieadviseur een bedrijf moet hebben, afhankelijk van de grootte en de aard van de activiteiten. Een staalconstructiebedrijf met tweehonderd medewerkers is bijvoorbeeld verplicht om een niveau 1 preventieadviseur te hebben, een kantoor waar achthonderd mensen werken kan meestal volstaan met niveau 2. Tot twintig medewerkers mag met niveau 3. Over die niveaus: niveau drie is een opleiding van een week, niveau 2 is hoger beroepsonderwijs, zoiets als een bachelors degree en niveau 1 is universitair; een master. Wat er internationaal gelijkwaardig zou zijn weet ik niet precies. Ik denk dat het Britse NEBOSH de meest algemene erkenning heeft.’

Staat het NEBOSH Certificate op jouw verlanglijstje?
‘Jawel, maar ik ben nu eerst bezig aan een post-academische studie A.I.; Artificial Intelligence. Om precies te zijn Humane Artificial Intelligence in Business.’

Heeft dat te maken met je veiligheidskundige werkzaamheden?
‘Zeker en vast. Wij veiligheidsmensen zijn heel erg bezig met het bestrijden van risico’s aan de bron. Waar dat onvoldoende helpt gaan we ellenlange procedures opstellen waar operators zich aan moeten houden en zelf gaan we aan de slag met de risicomatrix (tweedimensionaal schema waarin aan de hand van kans en effect een risico gekwantificeerd wordt, red.). Dat maakt het werk minder leuk. Het is eigenlijk onmenselijk van de werkgever om te verlangen dat een werknemer meer dan honderd procedures uit het hoofd leert en navolgt. Ik hoop dat we mensen zinvollere dingen kunnen laten doen als we techniek zoals A.I. inzetten. En natuurlijk dat ze hun werk veiliger kunnen doen, of dat nu gaat om werk in een distributiecentrum of op projecten.’

Waar zou jij kunstmatige intelligentie toegepast willen zien?
Tine Baert The Risky Business‘Overal waar het nuttig is. Waar repetitief geestdodend werk vermeden kan worden en waar het levens redt. Ik zie mogelijkheden in geautomatiseerde surveys met camera-drones; automatische herkenning van beelden zoals dat in de medische diagnostiek al gebeurt, maar dan met betrekking tot veiligheidsrisico’s. Slimme sensoriek en interpretatie van live data. Sinds de ramp met de Titanic weten we hoe belangrijk compartimentering van schepen is. In ruimten waar doorgang van personen nodig is vergt dat deuren van het zelfsluitende type. Die moeten bij nood dicht, maar ze mogen geen mensen beknellen. Ter vergelijking: een simpele overheaddeur heeft een lange rubberen balg aan de onderkant die de beweging onderbreekt als er iets wordt geraakt. Wat ik wil is dat een dergelijk mechanisme onderscheid kan maken tussen een voorwerp en een mens. Een doos of desnoods een gereedschapskist mag geplet, maar een mens niet. Er gebeuren nog steeds ongevallen mee, terwijl het te voorkomen moet zijn met beeldherkenning of infraroodcamera’s.’

Je geeft blijk van groot vertrouwen in technische mogelijkheden.
‘A.I. is gewoon sneller dan wij. Het kan ook zeer grote hoeveelheden data uit het verleden interpreteren en op grond daarvan ons helpen om beslissingen te nemen. Wij hebben de mond vol van objectiviteit en we nemen aan dat we dat zelf zijn, maar in het gunstigste geval zijn we slechts een soort gemiddelde van al onze ervaringen.’

Kan A.I. de menselijke moraal vervangen? Of repliceert het de moraal van de programmeur, met alle mogelijke gevolgen van dien?
‘Ik denk dat A.I. misschien wel een heel stuk objectiever en moreel rechtvaardiger kan zijn dan we zelf ooit zouden kunnen worden. We moeten onze vinger aan de pols van de computer houden, dat zeker. Al is het alleen maar om te weten waar applicaties vandaan komen, wie ze met welk doel heeft gemaakt, waarvoor ze ontwikkeld zijn en waarvoor we ze gaan inzetten. Het zal altijd een opgave zijn om goed en mogelijk kwaad te wegen, maar zonder gefundeerd vertrouwen kom je nergens. Ter vergelijking: de werknemer zal er in de basis ook op vertrouwen dat zijn werkgever zorgt voor veilige en juiste werkomstandigheden.’

En we hebben de privacywetgeving te respecteren. A.I. en de AVG zitten elkaar flink in de weg.
‘Bij de studie Humane Artificial Intelligence gaat het vooral om wat er in menselijk opzicht gebeurt met data. Wat het voor óns betekent of kan betekenen. In Europa zijn we heel erg bezorgd om de privacy. Zó erg dat we dreigen alle voordelen van intelligente dataverwerking uit het oog te verliezen. Toen ik in Taiwan woonde heb ik gezien hoe anders mensen in Azië omgaan met techniek en automatisering. Overal zie je sensoren en camera’s en al die data worden gebruikt voor een of ander doel. Als er een straat wordt aangelegd dan staan de camera’s er als eerste. Ik wil niet zeggen dat de klakkeloze omarming van de techniek de juiste weg is, maar ons verzet stelt ons op achterstand.’

Willen we per se al de data die we verzamelen uitnutten? Er zijn tegenwoordig allerlei apparaten die data produceren, van gereedschappen met Bluetooth en gps aan boord tot persoonlijke gasmeters die met het personeel uitzwermen en samen een groot detectiesysteem vormen.
We staan te trappelen. Er zijn bedrijven die tien jaar aan data hebben opgeslagen en daar van alles mee willen. Mijn eerste vraag is dan op welke manier die data gestructureerd is, want dat is behoorlijk bepalend voor wat je ermee kunt. Meestal zijn het raw data en zijn de verwachtingen tamelijk overspannen. Waar ik persoonlijk heen wil is begrip van de mogelijkheden. Ik wil het begrijpen om de mogelijkheden te doorgronden en te kunnen beoordelen wat het nut is. Anders overkomt het ons, want de techniek raast gewoon door.’

Zoals alle autonome systemen die links- of rechtsom worden ingevoerd, uiteraard met de bijbehorende nieuwe risico’s?
‘De self driving car mag als voorbeeld gelden. Die monitort zijn omgeving. Hij herkent een fietser en zijn koers, ziet waar een voorrangsdriehoek staat en hij voorspelt mogelijke gebeurtenissen sneller dan wij het zelf zouden kunnen. En hij leert ook, wat hem kunstmatig intelligent maakt. De enkele zeldzame fout die een Tesla ooit heeft gemaakt wordt zeer breed uitgemeten en stelt objectief gezien weinig voor vergeleken bij de menselijke fouten die we zelf maken. Een collega van mij heeft dat al eens vergeleken met het ad valvas-bord waarop ongevalsvrije dagen worden vermeld. Ook dat getuigt van een overdreven aandacht voor dat zeldzame incident. Áls er een keer een ongeval gebeurt dan wordt er een heel circus opgetuigd, terwijl we ondertussen procedures schrijven die vol fouten staan. Geef maar eens een barbecue als we honderd dagen geen typefouten hebben gemaakt in onze mailberichten; zet dát eens op het ad valvas-bord.’

Zo zit er in elke duizend regels computercode ook minstens één fout, en toch varen we blind op wat de computer zegt.
‘Zo kun je al die pagina’s procedures die we schrijven ook nooit foutloos krijgen, ongeacht hoe vaak en met hoeveel mensen je ze reviewt. Het is ook niet mijn streven om A.I. blind te volgen, want het is de faalbare mens die de randvoorwaarden schept en de regels opstelt. Daar zijn we al eens achter gekomen met een intelligent systeem dat heel snel medische diagnoses kon stellen aan de hand van ingevoerde röntgenfoto’s. Aan de hand van de vorm van afgebeelde vlekjes kon het kanker herkennen. Tot bleek dat de uitzonderlijk goede prestaties kwamen doordat het niet keek naar de vlekjes maar naar het afgebeelde liniaaltje dat op alle kankerpositieve plaatjes stond.’

Dat geeft vooral aan hoe slecht onze instructies zijn en wat we allemaal over het hoofd zien bij het toepassen van A.I.
‘Een ander voorbeeld is de discriminatie die onbedoeld kan optreden als je A.I. inzet bij selectieprocedures. Als je referentiedata bestaat uit gegevens van witte mannen dan selecteert het systeem witte mannen. Als gezichtsherkenningssoftware is ingeleerd met Aziatische gezichten, dan zal het mij als Vlaamse slecht herkennen, net zoals een andere huidskleur van invloed zal zijn.’

Achteraf kun je dat gênant vinden. En het aan de principiële afkeur laten bijdragen.
‘A.I. dwingt je hoe dan ook tot ethische beschouwingen.’ Aarzelend: ‘Nederlanders hebben naar mijn idee wel een vrij uitgesproken mening waar het gaat om hun eigen systemen, hun wetten en de manier waarop de samenleving is georganiseerd. De tegenstanders van A.I. laten zich hier luidkeels horen en ze krijgen alle kans. Privacywetgeving krijgt in West-Europa zoveel meer steun dan in Azië, terwijl het nooit pragmatisch zal zijn. Ik ga niet over goed of fout, maar laat ons vooral niet blind zijn voor ons eigen maatschappelijke wantrouwen dat aan onze regels ten grondslag ligt.’

Ten slotte: ben je niet bang dat A.I. ons overrulet, ons uiteindelijk wegvaagt? Dat de intelligente machine die we programmeren om paperclips te maken álles in paperclips om gaat zetten?
‘Wij houden controle over de boundaries. Volledig autonoom werkende applicaties zullen we niet toestaan. Wij bewaken de zaak, houden ons hoofd erbij en zijn de baas, toch? Als je de stekker eruit trekt bestaat A.I. niet meer, dat is mijn zekerheid en daar wil ik de controle over hebben. In ons beroep moeten wij ervoor zorgen dat anderen zich met zo min mogelijk stress en risico aan hun taken kunnen wijden. Zonder of mét A.I.’
Home
Cookies zijn essentieel voor een goede werking van deveiligheidskundige.nl. Door op oké te klikken geeft u toestemming voor het gebruik van cookies op deze website.