Laatst bijgewerkt: 8 april 2025
1. Inleiding en doelstelling
Bij Fyris Research & Data ontwikkelen wij digitale oplossingen op gebied van strategische communicatie, public affairs en aanverwante disciplines. Om onze diensten te verbeteren en efficiënter te maken, maken wij gebruik van kunstmatige intelligentie (AI).
In dit document wordt toegelicht op welke manier wij AI inzetten, welke data wij gebruiken en welke voorzorgsmaatregelen wij nemen om te voldoen aan de geldende wet- en regelgeving. Met deze AI Policy willen wij onze klanten en andere belanghebbenden transparant informeren over onze aanpak, conform de aanbevelingen van de Kamer van Koophandel (KVK) en de richtlijnen van de Autoriteit Persoonsgegevens (AP).
2. Toepassingsgebied
Dit beleid geldt voor alle medewerkers, adviseurs, en partners van Fyris Research & Data die betrokken zijn bij het gebruik van AI-toepassingen in het kader van onze adviesdiensten. Het omvat:
- Alle IT-systemen en software die gebruikmaken van AI, inclusief eigen ontwikkelde en externe AI-oplossingen.
- Alle gegevens die worden verzameld, verwerkt, opgeslagen en/of gedeeld door Fyris Research & Data in het kader van AI-toepassingen.
- Alle processen en procedures voor kwaliteits- en risicobeheer van AI-systemen.
3. Visie en principes
3.1 Veiligheid en zorgvuldigheid
Onze kernfocus is veiligheid en zorgvuldigheid. De informatie waar wij mee werken kan een politiek of maatschappelijk gevoelig karakter hebben. Wij hanteren strikte protocollen om de vertrouwelijkheid van gegevens te waarborgen, mede omdat reputaties en belangen van opdrachtgevers en derden op het spel kunnen staan.
3.2 Transparantie
Wij willen onze klanten helder informeren over wanneer en hoe wij AI inzetten. Conform de aanbevelingen van de KVK stellen we ons transparant op:
- We benoemen welke AI-toepassingen we gebruiken.
- We leggen uit met welk doel deze toepassingen worden ingezet.
- We beschrijven hoe data worden verzameld, verwerkt en bewaard.
3.3 Naleving wet- en regelgeving
Wij houden ons aan alle relevante wet- en regelgeving, zoals de Algemene Verordening Gegevensbescherming (AVG) en de aankomende EU AI Act (AI-verordening). Hierbij volgen wij de richtlijnen van de Autoriteit Persoonsgegevens (AP).
- We passen ‘privacy by design’ en ‘privacy by default’ toe. Dit houdt in dat enerzijds al bij het ontwerp van een product of dienst rekening wordt gehouden met privacy, en anderzijds dat de standaardinstellingen zo privacyvriendelijk mogelijk moeten zijn.
- We toetsen de AI-toepassingen aan de beginselen van proportionaliteit en dataminimalisatie. Dit houdt in dat we niet meer data verzamelen dan strikt noodzakelijk is.
3.4 Ethisch gebruik
AI mag nooit worden ingezet op een manier die in strijd is met de geldende ethische en maatschappelijke normen, of die leidt tot discriminatie, schending van grondrechten of ongewenste beïnvloeding van politieke processen. Wij onderschrijven hiermee de beginselen van eerlijkheid, betrouwbaarheid en verantwoordelijkheid zoals die in de (ontwerp) AI-verordening zijn verankerd.
4. Gebruikte AI-toepassingen en doelstellingen
4.1 Data-analyse en monitoring
Wij zetten AI in om grote hoeveelheden informatie (bijvoorbeeld mediaberichten, politieke debatten, beleidsdocumenten) te analyseren. De AI helpt ons verbanden, trends en sentimenten te ontdekken, zodat wij onze klanten beter kunnen adviseren over hun communicatiestrategie en lobby-inspanningen. Het is hierbij van groot belang te benoemen dat wij AI in dit verband alleen inzetten als hulpmiddel voor onze adviseurs. Uiteindelijk zijn zij degenen die een menselijke controle doen op accuraatheid en kwaliteit.
4.2 Automatisering van routinetaken
We zetten AI tevens in voor het automatiseren van repetitieve taken, zoals het ordenen en rubriceren van documenten of het opstellen van standaardrapportages. Hierdoor kunnen onze adviseurs zich richten op het leveren van hoogwaardige, persoonlijke advisering.
4.3 LLMs en contentcreatie
Om onze adviesprocessen te ondersteunen en efficiënter te maken, maken wij gebruik van verschillende AI-tools. Hieronder lichten we toe op welke manier en met welk doel wij deze toepassingen inzetten en welke voorzorgsmaatregelen we treffen.
- Doelstellingen en gebruik
- Samenvatten en tekstgeneratie: AI wordt ingezet om (concept)teksten, rapporten of adviezen samen te vatten of op te stellen. Dit stelt onze adviseurs in staat om sneller de inhoud van een stuk te begrijpen, en sneller met een eerste opzet te komen, waarna zij de inhoud handmatig verder controleren, verfijnen en aanpassen.
- Idee-ontwikkeling en brainstorm: We benutten AI-tools als creatieve sparringpartner, bijvoorbeeld om alternatieve invalshoeken of potentiële strategieën te verkennen binnen een communicatiedossier of lobbytraject.
- Taalcontrole en vertaling: Bij het opstellen van public affairs-documentatie in meerdere talen kan AI helpen met snelle vertaalsuggesties of tekstcorrecties.
- Afbeeldingen creëren: We gebruiken AI-tools ook om (ideeën voor) afbeeldingen, visualisaties en pictogrammen te creëren.
- Type data en beperkingen
- Input: De informatie die wij in het kader van AI gebruiken, is met name (deels) openbare data of reeds geanonimiseerde klantinformatie. Waar nodig wordt gevoelige of vertrouwelijke informatie geherstructureerd of verwijderd voordat we deze tools raadplegen.
- Uitgangspunt: Wij sturen geen rechtstreeks herleidbare persoonsgegevens, bedrijfsgeheimen en andere strikt vertrouwelijke gegevens naar AI-providers, tenzij er een expliciete verwerkersafspraak met voldoende waarborgen kan worden gerealiseerd.
- Privacy en beveiliging
- Verwerking buiten onze systemen: De input voor AI-tools wordt verwerkt op externe servers. Wij zijn ons ervan bewust dat hier potentieel risico’s aan kleven wat betreft de privacy van onze klantgegevens. Daarom delen we geen vertrouwelijke data en nemen we extra technische maatregelen (zoals pseudonimisering) voordat we data invoeren.
- Garantie voor klanten: Wij beoordelen per project of het verantwoord is om (deel)gegevens met deze AI-tool te verwerken, mede op basis van de gevoeligheid van de informatie.
- Continuïteit en controle: We houden de updates en voorwaarden van de AI-tools die wij gebruiken in de gaten, inclusief eventuele wijzigingen in hun privacy- en beveiligingspraktijken. Indien deze veranderen, herzien wij onze interne procedures om te garanderen dat wij voldoen aan de geldende wet- en regelgeving.
- Kwaliteits- en risicoborging
- Menselijke toetsing: De output van AI-tools wordt altijd door een adviseur beoordeeld op juistheid, relevantie en toonzetting. LLMs kunnen feitelijk onjuiste of onvolledige antwoorden geven (‘hallucineren’); daarom toetsen wij de resultaten zorgvuldig voordat wij deze verwerken in onze adviezen of communicatieproducten.
- Bewustzijn van bias: Omdat AI-modellen gevoelig kunnen zijn voor ingebakken vooroordelen, nemen wij een extra stap om te controleren of de inhoud niet onbedoeld discriminerend of anderszins ongewenst is.
- DPIA en risicoanalyse: Voor het gebruik van externe AI-diensten met een mogelijk hoger risicoprofiel (zoals het verwerken van gevoelige data) kunnen wij waar nodig een Data Protection Impact Assessment (DPIA) uitvoeren om eventuele risico’s en mitigerende maatregelen vast te stellen.
- Door de inzet van AI tools blijven wij ons advieswerk continu verbeteren, terwijl we de vertrouwelijkheid van klantinformatie en de naleving van privacywetgeving handhaven. Mocht je hier specifieke vragen over hebben, neem dan gerust contact op met ons kantoor.
4.4 Programmeersoftware
Om efficiënter te programmeren maken we gebruik van Github Copilot. Deze applicatie heeft toegang tot ons eerdere programmeerwerk om codesuggesties te doen.
5. Gegevensverwerking
5.1 Dataverzameling
- Bronnen: Wij verzamelen data uit (openbare) bronnen, zoals nieuwswebsites, social media, parlementaire databases en beleidsdocumenten. Daarnaast kunnen we ook gegevens aangeleverd door klanten verwerken, mits hiervoor nadrukkelijk de juiste toestemming is verkregen.
- Rechtmatigheid: We zorgen dat we een geldige grondslag hebben voor de verwerking (bijvoorbeeld toestemming, gerechtvaardigd belang of uitvoering van een overeenkomst waarbij het mogelijk gebruik van AI is overeengekomen).
5.2 Dataminimalisatie
We verwerken alleen die gegevens die noodzakelijk zijn om ons doel te bereiken (o.a. geavanceerde data-analyses of risicobeoordelingen). Niet-relevante en niet-noodzakelijke gegevens worden niet opgeslagen of worden zo snel mogelijk verwijderd.
5.3 Bewaartermijnen
Wij hanteren duidelijke bewaartermijnen conform de AVG. Gegevens worden niet langer bewaard dan noodzakelijk is voor het doel waarvoor zij zijn verzameld.
5.4 Beveiliging
- Technische maatregelen: We maken gebruik van versleuteling, firewalls, en beveiligde opslag om data te beschermen tegen onbevoegden.
- Organisatorische maatregelen: Medewerkers worden getraind in veilig datagebruik en tekenen een geheimhoudingsverklaring. Toegang tot systemen is beperkt tot geautoriseerde personen.
6. Rollen en verantwoordelijkheden
6.1 Directie
De directie van Fyris Research & Data/Van Oort & Van Oort is eindverantwoordelijk voor het AI-beleid, en bewaakt de naleving van alle wetten en regels die relevant zijn voor de inzet van AI.
6.2 Privacy officer
Indien van toepassing is onze privacy officer verantwoordelijk voor het toezicht op correcte verwerking van persoonsgegevens, het uitvoeren van DPIA’s en het begeleiden van risicoanalyses rondom AI-systemen.
6.3 IT-Beheer
De IT-beheerder zorgt voor de technische infrastructuur en de implementatie van beveiligingsmaatregelen.
6.4 Adviseurs en programmeurs
Onze adviseurs en programmeurs werken met de AI-uitkomsten en rapporteren afwijkingen of fouten in de AI-resultaten. Zij blijven te allen tijde verantwoordelijk voor de interpretatie en toepassing van de data in hun adviezen aan klanten. Een geschreven product zal nooit zonder menselijke check naar een klant worden verstuurd.
7. Risicobeheer en kwaliteitsborging
7.1 Risicoclassificatie
Voorafgaand aan de implementatie van een nieuwe AI-toepassing voeren wij een risicoanalyse uit. Deze analyse richt zich op:
- Gevoeligheid van de data (politiek/maatschappelijk belang).
- Mogelijke impact op de rechten en vrijheden van betrokkenen.
- Kans op bias of discriminatie in het model.
7.2 Evaluatie en testing
Wij testen AI-systemen voorafgaand aan gebruik, en periodiek tijdens het gebruik. Hierbij kijken we naar betrouwbaarheid, nauwkeurigheid en ethische afwegingen. Indien nodig voeren we aanpassingen door om de kwaliteit van de AI-modellen te verbeteren en mogelijke negatieve effecten te beperken. We kunnen er ook voor kiezen een AI-systeem niet te gebruiken.
7.3 Monitoring en audits
We monitoren continu de werking van AI-modellen. Daarnaast kunnen interne of externe auditors periodiek controles uitvoeren op naleving van het AI-beleid.
8. Transparantie naar klanten en derden
Wij informeren onze klanten op de volgende manieren:
- Offertes en contracten: In onze offertes en contracten kunnen wij opnemen dat er tijdens een opdracht mogelijk AI gebruikt wordt.
- Vragen en bezwaar: Klanten of andere betrokkenen kunnen altijd een verzoek indienen voor inzage, correctie of verwijdering van hun persoonsgegevens, of bezwaar maken tegen verwerking van gegevens in AI-systemen.
9. Compliance en toekomstige AI-Verordening
9.1 Huidige wetgeving (AVG)
We waarborgen de naleving van de Algemene Verordening Gegevensbescherming (AVG) door onder andere:
- Het uitvoeren van DPIA’s voor hogere-risico AI-projecten.
- Het opstellen van verwerkersovereenkomsten met externe partijen die persoonsgegevens verwerken in opdracht van Fyris Research & Data.
- De principes van ‘data protection by design en by default’.
9.2 Aankomende EU AI Act (AI-Verordening)
De Europese Unie werkt momenteel aan een AI-verordening, die een risicogebaseerde aanpak hanteert om de veiligheid en grondrechten te waarborgen bij AI-toepassingen. Wij volgen de ontwikkelingen van deze verordening op de voet en nemen de volgende stappen:
- Risico-indeling: We zullen bestaande en nieuwe AI-systemen classificeren binnen de risicocategorieën van de AI-verordening.
- Documentatie: We houden nauwkeurig bij hoe onze modellen werken, welke data is gebruikt en welke waarborgen zijn genomen.
- Meldplicht: Indien van toepassing zullen we voldoen aan de wettelijke meld- en rapportageverplichtingen.
10. Incidentmanagement en meldprocedure
10.1 Incidenten met AI-systemen
Mocht er sprake zijn van een incident (bijvoorbeeld een datalek of het ongewenst uitlekken van gevoelige informatie), dan treedt het volgende protocol van Fyris Research & Data in werking:
- Direct melden bij de verantwoordelijke manager en de privacy officer.
- Snelle beoordeling van de impact op betrokkenen.
- Eventuele melding bij de Autoriteit Persoonsgegevens en bij de betrokkenen, indien wettelijk vereist.
- Evaluatie en het nemen van maatregelen om herhaling te voorkomen.
11. Exit-strategie
Zoals de KVK aanbeveelt bij AI-beleid, is het belangrijk een exit-strategie te hebben voor het beëindigen van AI-projecten of -contracten:
- Data teruggave en verwijdering: We zorgen dat bij het stopzetten van een AI-toepassing alle relevante data op een veilige manier worden gewist of, indien afgesproken, teruggeleverd aan de klant.
- Verantwoording: We leggen schriftelijk vast dat de AI-toepassing niet langer wordt gebruikt en niet meer toegankelijk is voor onbevoegden.
12. Evaluatie en actualisatie
Dit AI Policy-document wordt minimaal één keer per jaar geëvalueerd en zo nodig aangepast aan nieuwe (wettelijke) ontwikkelingen, technologische vernieuwingen en organisatorische veranderingen.
Vragen of opmerkingen
Voor vragen of opmerkingen over dit AI-beleid kun je contact met ons opnemen via info@fyris.nl.