Dit Verantwoord AI-beleid ("Beleid") beschrijft de principes, governancestructuren en operationele waarborgen die Subduxion B.V. ("Subduxion", "wij" of "ons") toepast op de ontwikkeling, inzet en voortdurende monitoring van kunstmatige-intelligentiesystemen binnen het Blake-platform (de "Diensten").
Subduxion zet zich in voor het verantwoord en ethisch gebruik van AI in commerciële omgevingen. Dit Beleid weerspiegelt onze verplichtingen op grond van Verordening (EU) 2024/1689 (de "EU AI-verordening"), Verordening (EU) 2016/679 (de "AVG") en de OESO-beginselen inzake kunstmatige intelligentie, en is gebaseerd op de richtsnoeren van de High-Level Expert Group on Artificial Intelligence van de Europese Commissie ("AI HLEG").
1. Reikwijdte en classificatie
Dit Beleid is van toepassing op alle AI-systemen die in de Diensten zijn geïntegreerd, waaronder systemen voor leadidentificatie, prospectscoring, contentgeneratie, gedragspatroonanalyse en voorspellende analyses.
Subduxion heeft een risicoclassificatiebeoordeling van haar AI-systemen uitgevoerd in overeenstemming met Titel III van de EU AI-verordening. Op basis van deze beoordeling worden de AI-systemen die binnen de Diensten worden ingezet, geclassificeerd als AI-systemen met beperkt risico op grond van artikel 50 van de EU AI-verordening, onderworpen aan transparantieverplichtingen. Geen van de AI-systemen die in de Diensten worden gebruikt, is geclassificeerd als hoog-risico in de zin van Bijlage III van de EU AI-verordening. Subduxion maakt geen gebruik van verboden AI-praktijken zoals gedefinieerd in artikel 5 van de EU AI-verordening.
Deze classificatie wordt periodiek herzien en zal worden bijgewerkt in reactie op wijzigingen in het regelgevend kader, de inzetcontext of de mogelijkheden van de onderliggende systemen.
2. Leidende beginselen
De volgende beginselen zijn leidend voor onze benadering van AI-ontwikkeling en -inzet:
- Menselijke autonomie en toezicht. AI-systemen binnen de Diensten zijn ontworpen om menselijke besluitvorming te ondersteunen, niet om deze te vervangen. Alle door AI gegenereerde uitvoer, inclusief prospectaanbevelingen, outreach-content en scoringsbeoordelingen, is onderworpen aan menselijke beoordeling en goedkeuring alvorens enige actie met extern effect wordt ondernomen. Gebruikers behouden de volledige bevoegdheid om elke AI-aanbeveling te accepteren, aan te passen of af te wijzen.
- Transparantie. Wij zetten ons in om ervoor te zorgen dat gebruikers begrijpen wanneer zij interacteren met door AI gegenereerde content en hoe AI de aan hen gepresenteerde informatie beïnvloedt. Door AI gegenereerde uitvoer wordt als zodanig aangeduid binnen de platforminterface. Gebruikers kunnen informatie opvragen over de algemene logica en parameters die ten grondslag liggen aan AI-gestuurde functies.
- Eerlijkheid en non-discriminatie. Subduxion ontwerpt, test en monitort haar AI-systemen om het risico op oneerlijke vooringenomenheid in uitvoer te minimaliseren. Wij hanteren gestructureerde evaluatieprocedures om vooringenomenheid met betrekking tot beschermde kenmerken, zoals gedefinieerd in Richtlijn 2000/78/EG en nationale gelijkheidswetgeving, te identificeren en te beperken.
- Nauwkeurigheid en betrouwbaarheid. Wij passen strenge test-, validatie- en monitoringprocedures toe om ervoor te zorgen dat AI-systemen consistent en betrouwbaar presteren. AI-uitvoer is probabilistisch van aard en wordt niet gegarandeerd op nauwkeurigheid. Gebruikers zijn verantwoordelijk voor verificatie alvorens hierop te vertrouwen.
- Privacy en gegevensbeheer. Alle AI-verwerking geschiedt in overeenstemming met de AVG en ons Privacybeleid. Persoonsgegevens die voor AI-functionaliteit worden gebruikt, worden verwerkt op een rechtmatige grondslag, met passende waarborgen waaronder gegevensminimalisatie, doelbinding en pseudonimisering waar haalbaar.
- Beveiliging en weerbaarheid. AI-systemen zijn onderworpen aan dezelfde beveiligingsnormen als alle andere componenten van de Diensten, waaronder toegangscontroles, versleuteling, monitoring en incidentresponsprocedures zoals beschreven in ons Beveiligingsbeleid.
- Verantwoording. Subduxion hanteert interne governancestructuren om verantwoording voor AI-gerelateerde beslissingen te waarborgen. De verantwoordelijkheid voor AI-governance is belegd op managementniveau, met vastgestelde escalatieprocedures voor incidenten, klachten en vragen van toezichthouders.
3. AI-governanceraamwerk
3.1 Interne governance
Subduxion beschikt over een AI-governancefunctie die verantwoordelijk is voor:
- Het uitvoeren en onderhouden van risicobeoordelingen voor alle AI-systemen in overeenstemming met de EU AI-verordening.
- Het definiëren en handhaven van interne normen voor AI-ontwikkeling, -testing en -inzet.
- Het beoordelen en goedkeuren van wijzigingen aan AI-systemen die hun gedrag, uitvoer of risicoprofiel materieel beïnvloeden.
- Het monitoren van de prestaties van AI-systemen en het onderzoeken van anomalieën, vooringenomenheid of klachten.
- Het bijhouden van documentatie over ontwerpbeslissingen van AI-systemen, governance van trainingsdata en evaluatieresultaten.
- Het coördineren met juridische, gegevensbeschermings- en productfuncties inzake AI-gerelateerde aangelegenheden.
3.2 Risicobeoordeling
Voorafgaand aan de inzet of materiële wijziging van enig AI-systeem voert Subduxion een gestructureerde risicobeoordeling uit die het volgende evalueert:
- Het beoogde doel en de inzetcontext van het systeem.
- De categorieën betrokken personen en de mogelijke impact op hun rechten en belangen.
- Het risico op vooringenomenheid, onnauwkeurigheid of onbedoelde gevolgen.
- De adequaatheid van de mechanismen voor menselijk toezicht.
- De naleving van toepasselijke wettelijke vereisten, waaronder de EU AI-verordening, de AVG en de ePrivacy-richtlijn.
4. Gegevensbeheer voor AI
De kwaliteit en governance van gegevens die in AI-systemen worden gebruikt, is van fundamenteel belang voor verantwoorde AI. Subduxion past de volgende gegevensbeheerpraktijken toe:
- Trainingsdata. AI-modellen worden ontwikkeld met zorgvuldig samengestelde datasets. Subduxion gebruikt geen individuele klantgegevens om modellen te trainen die met meerdere klanten worden gedeeld, zonder uitdrukkelijke, geïnformeerde toestemming. Waar klantgegevens worden gebruikt voor modelverbetering, worden deze geaggregeerd en geanonimiseerd overeenkomstig overweging 26 AVG.
- Gegevenskwaliteit. Subduxion hanteert procedures om de kwaliteit, relevantie en representativiteit te beoordelen en te waarborgen van gegevens die in AI-systemen worden gebruikt, met bijzondere aandacht voor de identificatie en beperking van vooringenomenheid in trainingsdata.
- Gegevensminimalisatie. AI-systemen zijn ontworpen om uitsluitend de gegevens te verwerken die noodzakelijk zijn voor het beoogde doel, overeenkomstig artikel 5(1)(c) AVG.
- Bewaring. Gegevens die door AI-systemen worden verwerkt, worden uitsluitend bewaard gedurende de periode die noodzakelijk is voor het aangegeven doel, met inachtneming van de bewaartermijnen zoals gespecificeerd in ons Privacybeleid.
5. Transparantieverplichtingen
In overeenstemming met artikel 50 van de EU AI-verordening en onze toezegging tot transparantie, waarborgt Subduxion dat:
- Gebruikers worden geïnformeerd dat AI-systemen worden gebruikt binnen de Diensten en een algemene beschrijving van hun functionaliteit krijgen.
- Door AI gegenereerde content (inclusief outreach-concepten, samenvattingen en scoring) duidelijk als door AI gegenereerd wordt aangeduid binnen de platforminterface.
- Gebruikers op verzoek worden geïnformeerd over de algemene logica die ten grondslag ligt aan AI-gestuurde functies, zonder openbaarmaking van eigendomsmethoden, modelarchitecturen of bedrijfsgeheimen.
- Waar door AI gegenereerde content bedoeld is voor communicatie met derden, het de verantwoordelijkheid van de gebruiker is om passende openbaarmaking te waarborgen overeenkomstig het toepasselijk recht.
6. Menselijk toezicht
Subduxion implementeert de volgende maatregelen voor menselijk toezicht:
- Alle door AI gegenereerde outreach-content (e-mails, berichten, belscripts) vereist uitdrukkelijke goedkeuring van de gebruiker vóór verzending. De Diensten verzenden geen communicatie naar derden op autonome wijze.
- Leadscoring en prospectaanbevelingen worden gepresenteerd als hulpmiddelen ter ondersteuning van besluitvorming. Scoringscriteria zijn gedocumenteerd en beschikbaar voor gebruikers. Gebruikers kunnen elke door AI gegenereerde score of aanbeveling overschrijven.
- Geautomatiseerde workflows die AI-uitvoer bevatten, omvatten configureerbare controlepunten waar menselijke beoordeling is vereist alvorens verder te gaan.
- Gebruikers kunnen specifieke AI-functies op werkruimte- of individueel niveau uitschakelen zonder dat dit de toegang tot de kernfunctionaliteit van de Diensten beïnvloedt.
7. Monitoring en beperking van vooringenomenheid
Subduxion erkent het risico dat AI-systemen vooringenomenheden die aanwezig zijn in trainingsdata of systeemontwerp, kunnen weerspiegelen of versterken. Om dit risico aan te pakken:
- Voert periodieke vooringenomenheidsaudits uit van AI-uitvoer, met bijzondere aandacht voor uitkomsten die personen onevenredig kunnen treffen op basis van beschermde kenmerken.
- Onderhoudt evaluatiedatasets die zijn ontworpen om te testen op veelvoorkomende vormen van vooringenomenheid in taalgeneratie- en scoringssystemen.
- Documenteert en volgt bevindingen met betrekking tot vooringenomenheid en de naar aanleiding daarvan genomen corrigerende maatregelen.
- Biedt een meldingsmechanisme voor gebruikers die mogelijk vooringenomen of discriminerende AI-uitvoer identificeren (legal@subduxion.com).
8. Verboden gebruik
Het volgende gebruik van AI binnen de Diensten is uitdrukkelijk verboden:
- Sociale scoring van personen of de beoordeling van personen op basis van persoonlijke kenmerken die geen verband houden met legitieme commerciële criteria.
- Real-time biometrische identificatie of emotieherkenning van personen.
- Manipulatie van personen door middel van subliminale technieken of het uitbuiten van kwetsbaarheden.
- Geautomatiseerde besluitvorming die rechtsgevolgen of vergelijkbare ingrijpende gevolgen voor personen heeft zonder zinvolle menselijke tussenkomst, in de zin van artikel 22 AVG.
- Verwerking van AI-uitvoer op een wijze die de rechten op gegevensbescherming omzeilt of ondermijnt.
- Gebruik van AI om content te genereren die opzettelijk misleidend is over de door AI gegenereerde aard ervan, in contexten waar openbaarmaking wettelijk vereist is.
9. Incidentbeheer
Subduxion beschikt over procedures voor de identificatie, het onderzoek en het herstel van AI-gerelateerde incidenten, waaronder:
- AI-systemen die systematisch onnauwkeurige, vooringenomen of schadelijke uitvoer produceren.
- Onbedoelde gegevensblootstelling via door AI gegenereerde content.
- Tekortkomingen in mechanismen voor menselijk toezicht.
- Klachten van gebruikers of derden met betrekking tot AI-gedrag.
AI-incidenten zijn onderworpen aan de incidentresponsprocedures zoals beschreven in ons Beveiligingsbeleid. Wanneer een AI-incident Persoonsgegevens betreft, zijn de meldingsprocedures voor datalekken in onze Verwerkersovereenkomst van toepassing.
10. Samenwerking met toezichthouders
Subduxion zet zich in voor een constructieve samenwerking met toezichthoudende autoriteiten op het gebied van AI-governance. Wij:
- Monitoren ontwikkelingen in de EU- en nationale AI-regelgeving en passen onze praktijken dienovereenkomstig aan.
- Zullen AI-systemen registreren in de EU-databank die is opgericht op grond van artikel 71 van de EU AI-verordening, wanneer en voor zover vereist.
- Werken samen met toezichthoudende autoriteiten bij de uitoefening van hun taken op grond van de EU AI-verordening en de AVG.
- Nemen deel aan branche-initiatieven en standaardontwikkeling met betrekking tot verantwoorde AI, waaronder ISO/IEC 42001 (AI Management Systems) en de aanstaande geharmoniseerde CEN/CENELEC-normen op grond van de EU AI-verordening.
11. Herziening en updates
Dit Beleid wordt ten minste jaarlijks herzien en waar nodig bijgewerkt om wijzigingen in onze AI-systemen, het toepasselijk recht, richtsnoeren van toezichthouders of best practices in de branche te weerspiegelen. Materiële wijzigingen worden gecommuniceerd via de Diensten of door middel van een kennisgeving aan het primaire contactpersoon dat aan uw account is gekoppeld.
12. Contact
Voor vragen, opmerkingen of meldingen met betrekking tot het verantwoord gebruik van AI binnen de Diensten kunt u contact opnemen met:
Subduxion B.V.
T.a.v.: AI Governance
High Tech Campus 5
5656 AE Eindhoven
Nederland
E-mail: legal@subduxion.com