{"id":1641,"date":"2025-11-21T11:57:39","date_gmt":"2025-11-21T10:57:39","guid":{"rendered":"https:\/\/uates.nl\/?p=1641"},"modified":"2026-01-08T15:35:28","modified_gmt":"2026-01-08T14:35:28","slug":"pim-zette-een-ai-dashboard-live-2","status":"publish","type":"post","link":"https:\/\/uates.nl\/en\/blogs\/pim-zette-een-ai-dashboard-live-2\/","title":{"rendered":"Pim zette een AI-dashboard live"},"content":{"rendered":"<p><strong>\u00a0<\/strong><\/p>\n<p><strong>AI verplaatst ongemerkt het zwaartepunt van macht, vertrouwen en verantwoordelijkheid.<\/strong><\/p>\n<p><strong>Deze blog onderzoekt wat er werkelijk verandert als we dashboards laten beslissen \u2013 en of wij als mens nog aan het stuur zitten. Dat leek onschuldig, tot we merkten dat niemand wist wie verantwoordelijk was als het systeem ernaast zat.<\/strong><\/p>\n<p>&nbsp;<\/p>\n<p>Het is een sc\u00e8ne die ik op steeds meer plekken terugzie. AI wordt ge\u00efntroduceerd als handige ondersteuning \u2013 een beetje tijdwinst hier, wat betere voorspellingen daar \u2013 maar onder de oppervlakte schuift er iets anders. Niet in de techniek, maar in\u00a0macht, vertrouwen en besluitvorming. De vraag is minder:\u00a0<em>wat kan dit systeem?<\/em>\u00a0en veel meer:\u00a0<em>wat doet dit systeem met hoe wij mensen met elkaar omgaan?<\/em><\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0AI is geen slimme stagiair<\/h5>\n<p>We praten graag over AI alsof het een soort digitale stagiair is: handig voor teksten, samenvattingen, planningen. Iets dat \u2018naast ons\u2019 werkt, netjes binnen de lijntjes. Maar in de praktijk schuift AI mee aan tafel op drie veel fundamentelere plekken:<\/p>\n<p>Allereerst bij de\u00a0vraagformulering. Voor er \u00e9\u00e9n regel code draait, is al besloten welke KPI\u2019s tellen, wie als \u2018risico\u2019 geldt, wie als \u2018high potential\u2019. Dat lijkt neutraal, maar het bepaalt welk mensbeeld, welke norm en welke ambitie we in het systeem gieten. Alles wat daarna komt, volgt die lijn.<\/p>\n<p>Vervolgens bij de\u00a0interpretatie van werkelijkheid. Modellen bepalen welke signalen worden uitvergroot en welke verdwijnen in de ruis. Wat goed te meten is, krijgt gewicht. Wat niet in het model past, raakt makkelijk ondergesneeuwd. De ervaring van een medewerker, de context van een wijk, de geschiedenis van een klantrelatie \u2013 ze verdwijnen uit beeld als het model er niks mee kan.<\/p>\n<p>En tenslotte bij de\u00a0verdeling van verantwoordelijkheid. Zodra het spannend wordt, staat ineens \u2018het systeem\u2019 tussen mensen in. \u201cHet staat zo in het dashboard.\u201d \u201cHet algoritme ziet hier een verhoogd risico.\u201d Mensen verschuilen zich daar sneller achter dan ze zelf doorhebben. Niet omdat ze kwade wil hebben, maar omdat het comfortabel is: de lastige keuze wordt gedelegeerd aan een grafiek. We denken vaak dat AI vooral\u00a0effici\u00ebnter\u00a0maakt. In werkelijkheid reorganiseert het\u00a0wie mag kijken, duiden en beslissen.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Informatie-soevereiniteit: wie zit er echt aan het stuur?<\/h5>\n<p>Het kernbegrip dat ik in organisaties gebruik, is\u00a0informatie-soevereiniteit.<\/p>\n<p>Daarmee bedoel ik iets heel concreets:<\/p>\n<ul>\n<li>Wie bepaalt welke informatie telt?<\/li>\n<\/ul>\n<ul>\n<li>Wie mag het model tegenspreken \u2013 en zonder repercussies zeggen:\u00a0<em>\u201cdit klopt niet voor deze situatie\u201d<\/em>?<\/li>\n<\/ul>\n<ul>\n<li>Wie is aanspreekbaar als het systeem structureel fout zit?<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p>In veel organisaties zie ik drie terugkerende patronen:<\/p>\n<p>Het eerste noem ik\u00a0het model als orakel. Dashboards worden behandeld als waarheid. Wie twijfelt, voelt zich lastig. De nuance \u201chet helpt ons om beter te kijken\u201d verschuift ongemerkt naar \u201chet heeft gezegd dat\u2026\u201d.<\/p>\n<p>Het tweede patroon is\u00a0\u201chet systeem zegt het\u201d als schild. Moeilijke gesprekken over prestaties, risico\u2019s of gedrag worden uitbesteed aan scores en grafieken. Het is minder confronterend om te verwijzen naar een model dan om zelf woorden te geven aan wat je ziet en voelt.<\/p>\n<p>Het derde patroon is\u00a0verkokerde verantwoordelijkheid. IT implementeert, inkoop contracteert, management stuurt op uitkomsten, teams mogen \u2018ervaren\u2019 wat het doet. Iedereen raakt betrokken, maar niemand is echt eigenaar van de vraag wat dit met mensen, cultuur en professionele ruimte doet.<\/p>\n<p>Op dat moment is AI geen middel meer, maar het\u00a0nieuwe centrum van zwaartekracht\u00a0in de organisatie. Besluiten, gesprekken en loopbanen gaan zich om het systeem heen organiseren. En het bijzondere is: daar heeft zelden iemand expliciet \u201cja\u201d tegen gezegd.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Leiderschap in een AI-tijdperk<\/h5>\n<p>Echt leiderschap in een AI-tijdperk gaat voor mij daarom minder over \u2018leren werken met nieuwe tools\u2019 en veel meer over\u00a0eigenaarschap over de filters van je organisatiebrein.<\/p>\n<p>Elke organisatie heeft zo\u2019n brein: een manier waarop informatie binnenkomt, wordt gewogen, gedeeld en omgezet in besluiten. Waar AI dat brein versterkt, wordt het cruciaal welke filters we erin bouwen.<\/p>\n<p>Dan komen vragen op tafel als:<\/p>\n<ul>\n<li>Welke vragen leggen we \u00fcberhaupt in het systeem? Wat vragen we n\u00edet?<\/li>\n<\/ul>\n<ul>\n<li>Welke aannames zitten onder onze modellen? Over mensen, prestaties, risico, succes?<\/li>\n<\/ul>\n<ul>\n<li>Welke ruimte cre\u00ebren we om het systeem te\u00a0weerleggen en wie heeft de positie om dat daadwerkelijk te doen?<\/li>\n<\/ul>\n<p>Daar zit het echte kantelpunt. Niet bij de vraag of een tool n\u00f3g wat slimmer wordt, maar bij de vraag of we als mens en als leiders de rug recht houden als het systeem iets anders zegt dan ons geweten, onze ervaring of onze professionele intu\u00eftie.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Drie vragen die vandaag al iets in beweging zetten<\/h5>\n<p>Je hebt geen nieuw beleidsstuk nodig om hiermee te beginnen. Drie vragen in je volgende MT-vergadering kunnen al veel blootleggen:<\/p>\n<ul>\n<li>Waar in onze organisatie werken we al met AI of geavanceerde algoritmes, zonder dat we het zo noemen? Denk aan scoringmodellen, risico-indicatoren, \u2018slimme\u2019 selectie of planning.<\/li>\n<\/ul>\n<ul>\n<li>Op welke plekken gebruiken we \u2018het systeem\u2019 impliciet als excuus om een lastig gesprek niet te voeren? Waar laten we een dashboard praten waar eigenlijk een mens zou moeten spreken?<\/li>\n<\/ul>\n<ul>\n<li>Waar moeten we expliciet maken: \u201chier is AI een hulpmiddel, maar de verantwoordelijkheid blijft bij ons, als mensen\u201d? En durven we dat dan ook hardop te zeggen tegen medewerkers, klanten, burgers?<\/li>\n<\/ul>\n<p>Dat zijn geen technische vragen. Dat zijn vragen over\u00a0cultuur, macht en moed.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Waarom ik een Quick Scan heb gebouwd<\/h5>\n<p>Precies om die reden heb ik een Quick Scan ontwikkeld rond AI, leiderschap en cultuur. Niet om nog een tool op de stapel te leggen, maar om zichtbaar te maken waar AI vandaag al aan je directietafel aanschuift, zonder dat het zo benoemd wordt.<\/p>\n<p>De scan kijkt niet naar welke software jullie gebruiken, maar naar wat er gebeurt met:<\/p>\n<ul>\n<li>psychologische veiligheid en vertrouwen,<\/li>\n<\/ul>\n<ul>\n<li>patronen van verantwoordelijkheid en schuld,<\/li>\n<\/ul>\n<ul>\n<li>ruimte voor reflectie, twijfel en tegenspraak,<\/li>\n<\/ul>\n<ul>\n<li>de manier waarop identiteit, waarde en mensbeeld in systemen worden ingebouwd.<\/li>\n<\/ul>\n<p>Of anders gezegd: hij kijkt niet naar het scherm, maar naar de mensen erachter en hun onderlinge onderstroom.<\/p>\n<p>&nbsp;<\/p>\n<p>De vraag is uiteindelijk niet \u00f3f AI in je organisatie landt. Dat gebeurt al \u2013 via leveranciers, platforms, HR, finance, klantcontact. De echte vraag is:\u00a0onder welke voorwaarden laat je het binnen \u2013 en wie bewaakt die?\u00a0Als we die vraag blijven uitstellen, ontstaat er een organisatie waarin mensen zich voegen naar het systeem, in plaats van andersom. En dan is het dashboard allang live, maar is er niemand meer die zich echt verantwoordelijk voelt als het ernaast zit.<\/p>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>\u00a0 AI verplaatst ongemerkt het zwaartepunt van macht, vertrouwen en verantwoordelijkheid. Deze blog onderzoekt wat er werkelijk verandert als we dashboards laten beslissen \u2013 en of wij als mens nog aan het stuur zitten. Dat leek onschuldig, tot we merkten dat niemand wist wie verantwoordelijk was als het systeem ernaast zat. &nbsp; Het is een [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[32],"tags":[75,54,52],"class_list":["post-1641","post","type-post","status-publish","format-standard","hentry","category-blogs","tag-macht-en-onmacht","tag-menselijkheid","tag-technologie"],"_links":{"self":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts\/1641","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/comments?post=1641"}],"version-history":[{"count":3,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts\/1641\/revisions"}],"predecessor-version":[{"id":1644,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts\/1641\/revisions\/1644"}],"wp:attachment":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/media?parent=1641"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/categories?post=1641"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/tags?post=1641"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}