Dominu

Reasoning infrastructure

AI die uitlegbaar is.
Ontworpen vóór gebruik,
niet achteraf verklaard.

Dominu is een reasoning layer die AI-uitkomsten inzichtelijk, controleerbaar en contextueel verdedigbaar maakt. Ontworpen voor omgevingen waar transparantie, menselijke verantwoordelijkheid en wetgeving structureel vereist zijn.

Explainability by design Human-in-the-loop Audit-ready trace Model-agnostic
Example: reasoning trace (preview)
Analytic
Aannames en causale relaties expliciet
Contrarian
Tegenspraak en failure modes geforceerd
Empirical
Plausibiliteit, datarisico’s en context zichtbaar
Consensus
Argumentatieve synthese + audit output
Publieke informatie: info.dominu.org
Beveiligd product: dominu.org

Black-box AI schaalt niet naar verantwoordelijkheid

Moderne AI-modellen zijn krachtig, maar intrinsiek ondoorzichtig. In gereguleerde of maatschappelijke contexten leidt dat tot structurele risico’s.

Niet herleidbaar

Besluiten zonder trace zijn moeilijk te verantwoorden richting bestuur, legal, toezicht of gebruikers.

Aannames blijven impliciet

Het model “werkt”, maar op basis van aannames die niet expliciet zijn gemaakt of gevalideerd.

Fouten worden laat ontdekt

Bias, confounders en ontbrekende variabelen worden vaak pas zichtbaar na incidenten of schade.

In veel AI-systemen ontstaat uitleg pas nádat een model al in productie is. Dat maakt validatie, toezicht en verantwoording complex. Dominu adresseert dit door redenering expliciet te maken vóórdat uitkomsten operationeel worden ingezet.

Explainability vóór het model

Dominu is geen model en geen post-hoc uitleglaag. Het is een redeneer-architectuur die de afweging expliciet maakt: aannames, alternatieven, onzekerheid en verdedigbaarheid.

Input Intent / Domain Multi-agent rounds Reasoning engines Consensus Audit output

Geen black-box antwoord, maar een herleidbare keten van argumenten.

Multi-agent deliberation

In plaats van één gegenereerd antwoord organiseert Dominu meerdere expliciete denkrollen die parallel redeneren, elkaar tegenspreken en structureel worden samengebracht in een herleidbare synthese.

Bekijk agents →

Audit-by-design

Per run zijn bijdragen, tegenspraak, synthese en metadata traceerbaar. De output is leesbaar én auditbaar. Dominu corrigeert geen inhoud en optimaliseert geen uitkomsten — het maakt redenering expliciet.

Bekijk AI Act mapping →
Dominu opereert onafhankelijk van het onderliggende AI-model en kan worden ingezet naast LLMs, klassieke machine-learningmodellen en rule-based systemen.

Agents

Elke agent vertegenwoordigt een vaste redeneerpositie. Klik om te openen. Deze rollen zijn functioneel — niet antropomorf — en maken explainability zichtbaar in taal en argumentatie.

Analytic Aannames · definities · causaliteit
Maakt definities expliciet, benoemt aannames en beschrijft causale relaties. Doel: een basis die controleerbaar en toetsbaar is.
Strategic Opties · trade-offs · plan
Maakt oplossingsroutes en risico’s concreet. Doel: besluitvorming ondersteunen met expliciete afwegingen.
Contrarian Failure modes · tegenvoorbeelden
Dwingt tegenspraak af: waar kan dit fout gaan, welke aannames zijn kwetsbaar, welke edge-cases breken het verhaal.
Empirical Plausibiliteit · data-bias · falsificatie
Labelt zekerheid, signaleert datarisico’s (confounders/selection bias) en benoemt welke metingen de claim kunnen weerleggen.
Moral Normatieve spanning · waarden
Brengt normatieve spanning expliciet in kaart. Doel: voorkomen dat “effectief” automatisch “acceptabel” wordt.
Reflective Systeem · tweede-orde effecten
Bekijkt context, incentives en tweede-orde effecten die vaak onder de radar blijven bij operationele beslissingen.

Reasoning engines

Van vrije tekst naar gestructureerde besluitvorming. Geen filtering — wel inzicht.

Contradiction Engine

Identificeert interne inconsistenties en conflicterende aannames binnen de redenering.

Triad Parser

Structureert redenering in stelling, onderbouwing en tegenargument, zodat het inspecteerbaar en exporteerbaar wordt.

Alignment & integrity checks

Signaleren normatieve spanning en structurele onzekerheid, zonder deze te elimineren of te verbergen.

Dominu corrigeert geen inhoud en optimaliseert geen uitkomsten. Het maakt redenering expliciet zodat mensen kunnen beoordelen, bijsturen en verantwoorden.

Wat Dominu niet doet

Dominu ondersteunt besluitvorming door inzicht, niet door automatisering.

Geen autonome beslissingen

Dominu neemt geen beslissingen over mensen en vervangt geen menselijke verantwoordelijkheid.

Geen juridisch/medisch/beleidsadvies

Dominu genereert redenering en structuur; interpretatie en besluitvorming blijven bij de organisatie en domeinexperts.

Geen optimalisatie zonder onderbouwing

Dominu “verbetert” uitkomsten niet stilletjes; het maakt aannames, trade-offs en onzekerheid zichtbaar.

Geen AI Act classificatie

Dominu kan compliance-activiteiten ondersteunen, maar classificeert geen systemen onder de EU AI Act.

EU AI Act alignment

Dominu is ontworpen om organisaties te ondersteunen bij verplichtingen rond transparantie, menselijke supervisie en auditability zoals beschreven in de EU AI Act.

De uiteindelijke classificatie van een AI-systeem en de juridische verantwoordelijkheid blijven bij de deployende organisatie.
AI Act vereiste Dominu ondersteunt
Transparantie Gestructureerde redeneer-trace (agents → rondes → synthese) in leesbare én auditbare vorm
Human oversight Beslissingsondersteuning; geen autonome besluitvorming over mensen
Auditability Herleidbare output + metadata (latency/tokens), geschikt voor audit en evidence packs
Risicobewustzijn Expliciete onzekerheid, tegenspraak en failure modes als standaard output
Dataminimalisatie Publieke informatieomgeving gescheiden van beveiligde productomgeving; geen menging van auth en publiek
Designed to support compliance obligations under the EU AI Act. Final classification and responsibility remain with the deploying organization.

Voor wie

Dominu is gebouwd voor teams die AI moeten kunnen uitleggen aan mensen die er verantwoordelijkheid voor dragen.

Bestuur · beleid · toezicht

Besluitvorming die je kunt verdedigen: aannames, risico’s en alternatieven expliciet.

Risk · compliance · legal

Auditability en trace als standaard output, geschikt voor governance en verantwoording.

AI/ML teams

Sneller itereren met tegenspraak en falsificatie-signalen; minder blind vertrouwen in metrics.

Publieke sector · HR · zorg

Mens-in-de-lus by design. Geen autonome beslissingen over mensen.

Technische status

Publieke informatie en documentatie staan los van het beveiligde product.

Productomgeving: dominu.org (beveiligd)
Informatie: info.dominu.org (publiek)
Eigenschappen
Multi-agent · Trace · Audit-by-design
Gebruik
Decision support · Human oversight

Contact

Voor pilots, licenties of technische due diligence.

Request a compliance pilot

Beschrijf kort je use-case, domein en gewenste mate van auditability. Dominu is bedoeld voor situaties waar je besluitvorming moet kunnen uitleggen.

Vermeld bij voorkeur: of het besluitvorming met impact op mensen raakt, en welke mate van trace/evidence gewenst is.

Deze knop kopieert een mailtemplate naar je clipboard (geen backend nodig).