{"id":1634,"date":"2025-10-27T10:48:58","date_gmt":"2025-10-27T09:48:58","guid":{"rendered":"https:\/\/uates.nl\/?p=1634"},"modified":"2026-01-08T21:46:40","modified_gmt":"2026-01-08T20:46:40","slug":"ai-tussen-snelheid-en-wijsheid-de-menselijke-maat-als-harde-randvoorwaarde-2","status":"publish","type":"post","link":"https:\/\/uates.nl\/en\/artikel\/ai-tussen-snelheid-en-wijsheid-de-menselijke-maat-als-harde-randvoorwaarde-2\/","title":{"rendered":"AI tussen snelheid en wijsheid: de menselijke maat als harde randvoorwaarde"},"content":{"rendered":"<div class=\"wp-block-buttons is-content-justification-right is-layout-flex wp-container-core-buttons-is-layout-d445cf74 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/uates.nl\/en\/ai-tussen-snelheid-en-wijsheid-uates-251027\/\"><span style=\"text-decoration: underline;\">Download dit artikel als pdf<\/span><\/a><\/div>\n<\/div>\n\n\n<p>&nbsp;<\/p>\n<p><strong>AI tussen snelheid en wijsheid: de menselijke maat als harde randvoorwaarde.<\/strong><\/p>\n<p><strong>Kunstmatige intelligentie versnelt processen en vergroot onze mogelijkheden, maar zonder duidelijke grenzen schuift effici\u00ebntie al snel over wijsheid heen. De vraag is niet wat kan, maar wat moet en wenselijk is. Wie de menselijke maat centraal zet, ontwerpt en gebruikt AI op een manier die waardigheid, autonomie en verbondenheid versterkt.<\/strong><\/p>\n<p>&nbsp;<\/p>\n<h5>\u00a0 \u00a0Inleiding<\/h5>\n<p>AI is in korte tijd doorgedrongen tot zorg, rechtspraak, onderwijs en bedrijfsvoering. Algoritmen analyseren gedrag, doen voorspellingen en sturen keuzes. De belofte is re\u00ebel: sneller, nauwkeuriger, toegankelijker. Tegelijk schuurt er iets. Wie bepaalt hoe beslissingen tot stand komen? Welke vooroordelen liften mee in data en modellen? Wat gebeurt er met vakmanschap als we taken uitbesteden aan systemen die sneller en overtuigender lijken dan wij? De kern is geen technisch detail maar een maatschappelijke keuze: hoe houden we de menselijke maat leidend in systemen die door schaal en rekenkracht ons beoordelingsvermogen kunnen verdringen? Deze blog stelt \u00e9\u00e9n vraag centraal: wat hebben leiders, ontwerpers en professionals vandaag te doen om AI te richten op menselijkheid en rechtvaardigheid, zodat innovatie geen botsing wordt met de waarden die werk en samenleving dragen?<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Spanning die ertoe doet<\/h5>\n<p>Mijn stelling: \u201cIn het AI-tijdperk is \u2018meer controle door systemen\u2019 een verleiding. Wat werkt is \u2018meer verantwoordelijkheid door mensen\u2019. Effici\u00ebntie zonder ethiek is versnelling zonder richting.\u201d<\/p>\n<p>Algoritmen optimaliseren op wat je ze vraagt en op wat je ze voedt. Wanneer het doel impliciet snelheid of kosten wordt, krijgt alles wat lastig meetbaar is &#8211; menselijke waardigheid, context, relationele schade &#8211; te weinig gewicht. Bias in trainingsdata versterkt bestaande patronen: ongelijkheid wordt rationeel verpakt. Intussen werkt psychologische besmetting: als systemen overtuigend spreken, nemen we hun uitkomst eerder over, ook wanneer de onderliggende aannames onduidelijk zijn. \u201cHet model zal wel gelijk hebben\u201d is een stille verschuiving van verantwoordelijkheid. Leiderschap dat werkt, draait dit om: maak doelen expliciet, scheid hulpmiddel en besluit, en laat zien waar de grens loopt tussen advies en oordeel. Zo wordt wijsheid niet ingehaald door snelheid. Dat is niet alleen een morele keuze; toonaangevende kaders vragen aantoonbaar menselijk toezicht, uitlegbaarheid en herstelpaden.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Toepassing<\/h5>\n<p>Leg vooraf vast welke beslissingen principieel in menselijke handen blijven en op basis van welke waarden. Spreek per toepassing drie expliciete criteria af (bijvoorbeeld: rechtvaardigheid, proportionaliteit, herstelbaarheid) en verwijs er in elk besluit naar. Houd &#8216;mens in de lus&#8217; niet alleen procedureel maar re\u00ebel: professionals krijgen tijd en taal om af te wijken, en afwijkingen worden niet afgestraft maar onderzocht. De EU-AI-verordening dwingt dit de komende jaren bovendien stapsgewijs af, met hogere eisen voor hoog-risico-systemen en verplicht menselijk toezicht. (Inwerkingtreding 1 augustus 2024; eerste verboden praktijken sinds 2 februari 2025.)<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Onderstroom zichtbaar maken<\/h5>\n<p>Onder techniek bewegen rollen, loyaliteiten en projecties. Bestuurders kunnen al te veel hoop projecteren op technologie als &#8216;neutrale scheidsrechter&#8217;. Ontwikkelteams voelen loyaliteit naar snelheid en elegantie, gebruikers naar gemak, toezichthouders naar zekerheid. Zonder taal voor die onderstroom ontstaat schijnobjectiviteit (\u201chet systeem zegt het\u201d) of defensie (\u201cwij kunnen hier niets meer aan doen\u201d). Benoem wie welke verantwoordelijkheid draagt, waar belangen botsen, en welke waarden zwaarder wegen dan metrics. Dat maakt het gesprek eerlijk en voorkomt dat het morele oordeel verdampt in een zwarte doos. In de rechtspraak is dit expliciet gemaakt in Europese beginselen: grondrechten, non-discriminatie, kwaliteit en veiligheid, transparantie en gebruikerscontrole.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Een praktijkvoorbeeld<\/h5>\n<p>Een ziekenhuis onderzoekt AI-ondersteuning bij diagnostiek. Het model herkent patronen op scans en doet aanbevelingen. Artsen waarderen de snelheid, maar vrezen dat twijfel en context minder ruimte krijgen.<\/p>\n<p>Het ziekenhuis definieert een helder doel: snellere en betere triage zonder verlies van medisch oordeel. Er komt een beslisraamwerk met drie vaste vragen bij elk advies: wat is de zekerheid van het model, welke contextinformatie ontbreekt, en wat betekent dit voor risico en herstelbaarheid? Het team maakt een afwijkingslogboek waarin artsen kunnen vastleggen waarom zij afwijken en wat zij anders wegen. Er is een maandelijks interdisciplinair overleg met pati\u00ebntenvertegenwoordiging waarin patronen, bias-signalen en effecten worden besproken.<\/p>\n<p>Diagnostische doorlooptijden dalen, maar vooral stijgt het vertrouwen: artsen voelen zich gesteund in plaats van vervangen, pati\u00ebnten ervaren beter uitgelegde besluiten. Afwijkingen blijken leerzaam: ze leveren concrete verbeteringen op voor model en proces. Dit sluit aan bij internationale zorgethiek-richtlijnen: technologie ondersteunt, de mens beslist, met aandacht voor rechtvaardigheid, inclusie en herstel.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0De drie B\u2019s van menselijke maat in AI: bedoeling, begrenzing, bewijslus<\/h5>\n<p>Bedoeling maakt expliciet voor welk menselijk goed we de technologie inzetten; niet &#8216;zo snel mogelijk&#8217;, maar bijvoorbeeld &#8216;rechtvaardige toegang tot zorg&#8217; of &#8216;betere onderbouwing van besluiten&#8217;.<\/p>\n<p>Begrenzing\u00a0legt rode lijnen vast: beslissingen die niet worden geautomatiseerd, groepen die extra bescherming krijgen en contexten waarin inzet onwenselijk is.<\/p>\n<p>Bewijslus\u00a0sluit de cirkel: we toetsen systematisch op bias en effect, bieden bezwaar en herstel en leren zichtbaar van afwijkingen. Deze lens operationaliseert internationale principes: mensgericht, transparant, verantwoord en met continue risicobeheersing.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Wat zegt de wereld van normen en toezicht en wat betekent dat morgen?<\/h5>\n<p>Europa heeft een alomvattende AI-verordening. De kern: risicogebaseerde eisen, documentatie en logging, datakwaliteit, menselijke toezichtmechanismen en transparantie. De Europese Commissie heeft een AI Office ingericht voor co\u00f6rdinatie en handhaving. Wie in Europa met AI werkt, borgt nu governance, documentatie en human oversight.<\/p>\n<p>Naast wetgeving bieden internationale kaders houvast voor dagelijks handelen. Het NIST AI Risk Management Framework biedt een praktisch vocabulaire en proces voor risico-identificatie met nadruk op transparantie, validatie, monitoring en mensgerichte doelen. De OECD-AI-principes (2019, geactualiseerd 2024) geven ankerpunten: mensgericht, robuust, transparant, verantwoord en veilig. UNESCO\u2019s Aanbeveling over AI-ethiek (2021) verankert mensenrechten en maatschappelijke impact.<\/p>\n<p>In sectoren bestaan aanvullende richtlijnen. De WHO formuleert zes leidende principes voor AI in de zorg. In het onderwijs geeft UNESCO (2023) een mondiale handreiking voor generatieve AI. In de rechtspraak geeft de Raad van Europa (CEPEJ) een ethisch charter met randvoorwaarden voor legitimiteit en rechtsbescherming.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Recht en rechten: waar de grens loopt<\/h5>\n<p>De AVG (art. 22) geeft iedere burger het recht om niet uitsluitend aan een geautomatiseerd besluit te worden onderworpen dat rechtsgevolgen heeft of een vergelijkbare significante impact. Dat vraagt om ontwerpkeuzes: betekenisvol menselijk toezicht, uitlegbaarheid voor de betrokkene en re\u00eble mogelijkheid tot bezwaar en herstel, niet alleen &#8216;mens in de lus&#8217; op papier, maar aantoonbaar in de praktijk.<\/p>\n<p>&nbsp;<\/p>\n<h5>\u00a0 \u00a0Van principes naar praktijk: documenteren, toetsen, verbeteren<\/h5>\n<p>Twee concrete praktijken maken transparantie en verantwoordelijkheid werkbaar:\u00a0datasheets\u00a0voor datasets en\u00a0model cards\u00a0voor modellen. Datasheets leggen herkomst, samenstelling, aannames en beperkingen vast. Model cards documenteren prestaties, intended use en fairness-bevindingen. Daarmee wordt uitleg aan bestuurders, teams en belanghebbenden concreet en wordt auditen mogelijk.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Let op de schaal van taalmodellen<\/h5>\n<p>Grote taalmodellen leveren indrukwekkende resultaten, maar brengen re\u00eble risico\u2019s mee: datalekken, plausibele onzin, versterking van bias en ecologische kosten. Bender &amp; Gebru et al. (2021) waarschuwen voor &#8216;stochastic parrots&#8217;: overtuigende tekst zonder begrip. Aanbevelingen: documentatie van data, duidelijke grenzen aan gebruik en onderzoeken buiten de route van &#8216;steeds groter&#8217;.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Besturing en certificering<\/h5>\n<p>Als je structureel wilt borgen dat AI \u2018onder controle\u2019 blijft, helpt een managementsysteem.\u00a0ISO\/IEC 42001:2023\u00a0introduceert het AI-managementsysteem (AIMS) met rollen, processen, monitoring en continue verbetering. Geen vinklijstje, w\u00e9l een manier om richting te geven aan doelen, risico\u2019s en verbetercycli die sporen met wet- en regelgeving.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Publieke legitimiteit vraagt publieke dialoog<\/h5>\n<p>Draagvlak ontstaat niet in de boardroom alleen. Onderzoek van Ada Lovelace Institute en The Alan Turing Institute laat zien dat burgers AI willen die zichtbaar rechtvaardig, uitlegbaar en toetsbaar is; regulering vergroot comfort, mits die voelbaar is in praktijkervaring. Organiseer daarom participatieve vormen (burgerpanels, beroepsgroepen, cli\u00ebntenraden) en maak zichtbaar wat je leert.<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<h5>\u00a0 \u00a0Van reflectie naar beweging<\/h5>\n<p>Welke beslissingen in onze organisatie zijn te belangrijk om te automatiseren, juist omdat waardigheid, rechtvaardigheid of vertrouwen op het spel staan? Kijk de komende week bewust naar drie momenten waarop jij of je team &#8216;het systeem&#8217; als argument gebruikt en onderzoek waarvoor dat een shorthand is: tijdsdruk, onzekerheid of onuitgesproken belangen. Hanteer bij elke nieuwe AI-toepassing \u00e9\u00e9n beslischeck: kunnen we in twee zinnen uitleggen aan een kritische buitenstaander hoe dit de menselijke maat versterkt, en welke grens we hebben getrokken waar het systeem n\u00edet beslist?<\/p>\n<p><strong>\u00a0<\/strong><\/p>\n<p>AI wordt richtinggevend waar wij richting geven. Kies vandaag \u00e9\u00e9n toepassing, benoem doel en grens, en start met een eenvoudige bewijslus, zodat snelheid en wijsheid elkaar versterken en de menselijke maat geen bijzaak is, maar de randvoorwaarde waaronder innovatie mag versnellen.<\/p>\n<p>&nbsp;<\/p>\n<p>\u2e3b<\/p>\n<h5>\u00a0 \u00a0Bronnen<\/h5>\n<ul>\n<li>Ada Lovelace Institute, &amp; The Alan Turing Institute. (2023).\u00a0<em>How do people feel about AI?<\/em>https:\/\/www.adalovelaceinstitute.org\/wp-content\/uploads\/2023\/06\/Ada-Lovelace-Institute-The-Alan-Turing-Institute-How-do-people-feel-about-AI.pdf<\/li>\n<li>Ada Lovelace Institute, &amp; The Alan Turing Institute. (2025).\u00a0<em>How do people feel about AI? 2025 survey findings.<\/em>https:\/\/attitudestoai.uk\/assets\/documents\/How-do-people-feel-about-AI-2025-Ada-Lovelace-Institute.pdf<\/li>\n<li>Bender, E. M., Gebru, T., McMillan-Major, A., &amp; Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big?\u00a0<em>Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT \u201921)<\/em>, 610\u2013623. https:\/\/doi.org\/10.1145\/3442188.3445922<\/li>\n<li>Council of Europe, CEPEJ. (2018).\u00a0<em>European Ethical Charter on the use of artificial intelligence in judicial systems and their environment.<\/em>https:\/\/www.coe.int\/en\/web\/cepej\/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment<\/li>\n<li>European Union. (2016). Regulation (EU) 2016\/679 (General Data Protection Regulation), Article 22.\u00a0<em>Official Journal of the European Union.<\/em>https:\/\/eur-lex.europa.eu\/eli\/reg\/2016\/679\/oj\/eng<\/li>\n<li>European Union. (2024). Regulation (EU) 2024\/1689 (Artificial Intelligence Act).\u00a0<em>Official Journal of the European Union.<\/em>https:\/\/eur-lex.europa.eu\/eli\/reg\/2024\/1689\/oj\/eng<\/li>\n<li>ISO\/IEC. (2023).\u00a0<em>ISO\/IEC 42001:2023 \u2014 Information technology \u2014 Artificial intelligence \u2014 Management system.<\/em>https:\/\/www.iso.org\/standard\/42001<\/li>\n<li>Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., \u2026 Gebru, T. (2019). Model cards for model reporting.\u00a0<em>Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT<\/em>\u201919)*, 220\u2013229. https:\/\/doi.org\/10.1145\/3287560.3287596<\/li>\n<li>National Institute of Standards and Technology. (2023).\u00a0<em>Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1).<\/em>https:\/\/nvlpubs.nist.gov\/nistpubs\/ai\/NIST.AI.100-1.pdf<\/li>\n<li>OECD. (2019\/2024).\u00a0<em>OECD AI Principles.<\/em>https:\/\/oecd.ai\/en\/ai-principles<\/li>\n<li>UNESCO. (2021).\u00a0<em>Recommendation on the ethics of artificial intelligence.<\/em>https:\/\/www.unesco.org\/en\/articles\/recommendation-ethics-artificial-intelligence<\/li>\n<li>UNESCO. (2023).\u00a0<em>Guidance for generative AI in education and research.<\/em>https:\/\/unesco.org.uk\/site\/assets\/files\/10375\/guidance_for_generative_ai_in_education_and_research.pdf<\/li>\n<li>World Health Organization. (2021).\u00a0<em>Ethics and governance of artificial intelligence for health: WHO guidance.<\/em>https:\/\/www.who.int\/publications\/i\/item\/9789240029200<\/li>\n<li>Zuboff, S. (2019).\u00a0<em>The age of surveillance capitalism: The fight for a human future at the new frontier of power.<\/em>PublicAffairs. https:\/\/www.hachettebookgroup.com\/titles\/shoshana-zuboff\/the-age-of-surveillance-capitalism\/9781610395694\/<\/li>\n<li>Crawford, K. (2021).\u00a0<em>Atlas of AI: Power, politics, and the planetary costs of artificial intelligence.<\/em>Yale University Press. https:\/\/yalebooks.yale.edu\/book\/9780300264630\/atlas-of-ai\/<\/li>\n<li>Hildebrandt, M. (2020).\u00a0<em>Law for computer scientists and other folk.<\/em>Oxford University Press. https:\/\/academic.oup.com\/book\/33735<\/li>\n<li>Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daum\u00e9 III, H., &amp; Crawford, K. (2021). Datasheets for datasets.\u00a0<em>Communications of the ACM, 64<\/em>(12), 86\u201392. https:\/\/dl.acm.org\/doi\/fullHtml\/10.1145\/3458723<\/li>\n<\/ul>\n<p>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>&nbsp; AI tussen snelheid en wijsheid: de menselijke maat als harde randvoorwaarde. Kunstmatige intelligentie versnelt processen en vergroot onze mogelijkheden, maar zonder duidelijke grenzen schuift effici\u00ebntie al snel over wijsheid heen. De vraag is niet wat kan, maar wat moet en wenselijk is. Wie de menselijke maat centraal zet, ontwerpt en gebruikt AI op een [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[40],"tags":[54,52],"class_list":["post-1634","post","type-post","status-publish","format-standard","hentry","category-artikel","tag-menselijkheid","tag-technologie"],"_links":{"self":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts\/1634","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/comments?post=1634"}],"version-history":[{"count":6,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts\/1634\/revisions"}],"predecessor-version":[{"id":1679,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/posts\/1634\/revisions\/1679"}],"wp:attachment":[{"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/media?parent=1634"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/categories?post=1634"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/uates.nl\/en\/wp-json\/wp\/v2\/tags?post=1634"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}