Skip to content

Commit

Permalink
Release v1.2/laatste aanpassingen (#129)
Browse files Browse the repository at this point in the history
  • Loading branch information
ruthkoole authored May 23, 2024
1 parent 728646d commit 926fcd3
Show file tree
Hide file tree
Showing 15 changed files with 27 additions and 24 deletions.
Binary file modified docs/afbeeldingen/levenscyclus/levenscyclus.jpg
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
1 change: 1 addition & 0 deletions docs/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -21,6 +21,7 @@ Bovendien is belangrijk dat beslissingen niet worden ervaren als ‘black box’

## Het Algoritmekader
Waardengedreven met algoritmes en AI werken, betekent dat er aandacht moet zijn voor zaken als:

1. rollen en verantwoordelijkheden (governance);
2. risico’s op bias/discriminatie vroegtijdig detecteren;
3. het veilig kunnen verweken van gegevens;
Expand Down
5 changes: 1 addition & 4 deletions docs/levenscyclus/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -14,10 +14,7 @@ Omdat de levenscyclus van een algoritme en AI aanzet tot nadenken over de inzet
Wat is het doel, gaat het gebruik ervan wel naar verwachting, wanneer moet wat worden gedaan en wat als het gebruik ten einde loopt?
In praktijk kan het zo zijn dat de levenscyclus anders verloopt, bijvoorbeeld omdat na validatie en verificatie eerst terug naar de tekentafel moet worden gegaan (ontwerpfase) omdat het nog niet aan de wensen of vereisten voldoet.

![Levenscyclus](levenscyclus.jpg)

!!! note "opmerking"
De fasen van de levenscyclus zijn recent aangepast. Het bijbehorende figuur krijgt nog een update en wordt zo snel mogelijk aangepast.
![Levenscyclus](../afbeeldingen/levenscyclus/levenscyclus.jpg)

## Verschillende versies levenscyclus
De stappen in de levenscyclus van het Algoritmekader zijn gebaseerd op een samenvoeging van meer dan tien verschillende levenscyclusmodellen.
Expand Down
Binary file removed docs/levenscyclus/levenscyclus.jpg
Binary file not shown.
2 changes: 1 addition & 1 deletion docs/maatregelen/DPIA_onderdeel_programma_van_eisen.md
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@
title: Aanleveren DPIA door aanbieder wordt vereist in het Programma van Eisen, als persoonsgegevens worden verwerkt
toelichting: Neem als er sprake is van een hoog risico AI of impactvol algoritme of AI-systeem, waarbij persoonsgegevens worden verwerkt, de eis op in het Programma van Eisen dat de aanbieder een DPIA moet kunnen overhandigen.
vereiste:
- geb_dpia_verplicht_bij_hoog_risico
- dpia_verplicht_bij_hoog_risico
levenscyclus:
- ontwerp
- monitoring-en-beheer
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@
title: Bepaal of de output bepalende invloed heeft in een besluit richting personen
toelichting: Vergewis of het algoritme of AI-systeem overwegend bepalende invloed heeft in een besluit richting personen en laat aanbieder onderbouwen in hoeverre dit wel of niet het geval is. Maak de mate van menselijke tussenkomst onderdeel van de wedstrijd/inkoop/beoordeelingsmatrix als ook de vaste beoordeling hiervan
vereiste:
- recht_op_niet_geautomatiseerde_besluitvorming
- recht_op_niet_geautomatiseerd_besluitvorming
levenscyclus:
- ontwikkelen
- monitoring-en-beheer
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@
title: Controle mechanisme voor betekenisvolle menselijke tussenkomst bij gebruiken output
toelichting: Zorg voor een controle mechanisme waarmee kan worden voorkomen dat gebruikers belangrijke output van algoritmen en AI-systemen, zonder betekenisvolle menselijke tussenkomst, bv. enkel met doorklikken, kunnen overnemen.
vereiste:
- recht_op_niet_geautomatiseerde_besluitvorming
- recht_op_niet_geautomatiseerd_besluitvorming
levenscyclus:
- ontwikkelen
- monitoring-en-beheer
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@
title: Menselijke tussenkomst is een vast onderdeel van het Programma van Eisen bij aanbestedingen
toelichting: Neem menselijke tussenkomst op als standaard eis in het Programma van Eisen.
vereiste:
- recht_op_niet_geautomatiseerde_besluitvorming
- recht_op_niet_geautomatiseerd_besluitvorming
levenscyclus:
- ontwikkelen
- monitoring-en-beheer
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@
title: Menselijke tussenkomst is een vast onderdeel in een projecptlan of een déchargedocument
toelichting: Neem het element van menselijke tussenkomst op in het projectplan en dchargedocument.
vereiste:
- recht_op_niet_geautomatiseerde_besluitvorming
- recht_op_niet_geautomatiseerd_besluitvorming
levenscyclus:
- probleemanalyse
- ontwikkelen
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -2,7 +2,7 @@
title: Een model-verwerkersovereenkomst is onderdeel van de aanbesteding als persoonsgegevens worden verwerkt
toelichting: Inventariseer of er mogelijk sprake is van een algoritme of AI-systeem dat een hoog risico kan inhouden voor de rechten en vrijheden van natuurlijke personen of impactvol kan zijn voor hen en maak in voorkomend geval in de model-verwerkersovereenkomst een uitdrukkelijke verwijzing naar een concreet DPIA-document (met datum/kenmerk) of (indien op dat moment nog in bezit of bekend bij de steller) een expliciet invulveld voor het duiden van de betreffende DPIA, zodat die wordt genoemd ter completeren van de verwerkersovereenkomst vooraf het overeenkomen/ondertekenen van die verwerkersovereenkomst.
vereiste:
- geb_dpia_verplicht_bij_hoog_risico
- dpia_verplicht_bij_hoog_risico
levenscyclus:
- ontwerp
- monitoring-en-beheer
Expand Down
1 change: 1 addition & 0 deletions docs/overhetalgoritmekader/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -4,6 +4,7 @@ title: Over het Algoritmekader

Het is van belang dat algoritmes en AI op een verantwoorde manier worden ontwikkeld en gebruikt.
Dit betekent dat er aandacht moet zijn voor zaken als:

1. rollen en verantwoordelijkheden (governance);
2. risico’s op bias/discriminatie vroegtijdig detecteren;
3. de uitvoering van mensenrechtentoetsen (zoals IAMA’s);
Expand Down
4 changes: 2 additions & 2 deletions docs/vereisten/algoritmeregister.md
Original file line number Diff line number Diff line change
Expand Up @@ -40,7 +40,7 @@ Er wordt gewerkt aan wetgeving om het bij wet verplicht te stellen.
| Bron |
|-----------------------------|
|[Handreiking Algoritmeregister](https://www.digitaleoverheid.nl/wp-content/uploads/sites/8/2023/12/Handreiking-Algoritmeregister-versie-1.0.pdf)|
|Geactualiseerde Werkagenda Waardengedreven Digitaliseren 2024](https://open.overheid.nl/documenten/8fb16ed3-0946-49d5-bf1a-96724f1762d6/file)|
|[Geactualiseerde Werkagenda Waardengedreven Digitaliseren 2024](https://open.overheid.nl/documenten/8fb16ed3-0946-49d5-bf1a-96724f1762d6/file)|
|Kamerbrieven|

## Wanneer van toepassing?
Expand Down Expand Up @@ -75,4 +75,4 @@ Bij het onjuist of onvolledig publiceren in het Algortimeregister ontstaat er ee
=== "Governance"
<!-- list_maatregelen vereiste/algoritmeregister boubwlok/governance -->
=== "Publieke inkoop"
<!-- list_maatregelen vereiste/algoritmeregister bouwblok/publieke-inkoop -->
<!-- list_maatregelen vereiste/algoritmeregister bouwblok/publieke-inkoop -->
Original file line number Diff line number Diff line change
@@ -1,7 +1,6 @@
---
title: Gebruiksverantwoordelijken, zijnde overheidsinstanties of instellingen, organen of instanties van de Unie, leven de registratieverplichting na als het gaat om een hoog risico AI-systeem
toelichting: Gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is
geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis.
toelichting: Gebruiksverantwoordelijken van AI-systemen met een hoog risico die de hoedanigheid van overheidsinstanties of instellingen, organen of instanties van de Unie hebben, leven de in artikel 49 bedoelde registratieverplichtingen na. Wanneer deze gebruiksverantwoordelijke vaststellen dat het AI-systeem met een hoog risico dat zij voornemens zijn te gebruiken niet in de in artikel 71 bedoelde EU-databank is geregistreerd, gebruiken zij dat systeem niet en stellen zij de aanbieder of de distributeur daarvan in kennis.
status_vereiste:
- nog-niet-geldend
levenscyclus:
Expand Down
19 changes: 10 additions & 9 deletions docs/vereisten/kwaliteitsbeheersysteem_voor_hoog_risico_ai.md
Original file line number Diff line number Diff line change
Expand Up @@ -20,15 +20,16 @@ Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm

Aanbieders van AI-systemen met een hoog risico moeten een kwaliteitsbeheersysteem implementeren om te garanderen dat ze voldoen aan de AI-verordening.
Dit systeem omvat gedocumenteerde beleidslijnen, procedures en instructies, en behandelt beknopt de volgende aspecten:
a) een strategie voor de naleving van de regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;
b) technieken, procedures en systematische maatregelen die moeten worden toegepast voor het ontwerp, de controle van het ontwerp en de verificatie van het ontwerp van het AI-systeem met een hoog risico;
c) technieken, procedures en systematische maatregelen die moeten worden toegepast voor de ontwikkeling, de kwaliteitscontrole en de kwaliteitsborging van het AI-systeem met een hoog risico;
d) procedures voor het inspecteren, testen en valideren die vóór, tijdens en na de ontwikkeling van het AI-systeem met een hoog risico moeten worden uitgevoerd en de regelmaat waarmee zij moeten worden uitgevoerd;
e) technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast of geen betrekking hebben op alle relevante eisen van afdeling 2, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met deze eisen;
f) systemen en procedures voor databeheer, met inbegrip van dataverwerving, - verzameling, -analyse, -labeling, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;
g) het systeem voor risicobeheer zoals bedoeld in artikel 9 van de AI-verordening;
h) het opzetten, toepassen en onderhouden van een systeem voor monitoring na het in de handel brengen, overeenkomstig artikel 72 AI-verordening;
i) procedures in verband met het melden van een ernstig incident in overeenstemming met artikel 73 van de AI-verordening;

1. een strategie voor de naleving van de regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;
2. technieken, procedures en systematische maatregelen die moeten worden toegepast voor het ontwerp, de controle van het ontwerp en de verificatie van het ontwerp van het AI-systeem met een hoog risico;
3. technieken, procedures en systematische maatregelen die moeten worden toegepast voor de ontwikkeling, de kwaliteitscontrole en de kwaliteitsborging van het AI-systeem met een hoog risico;
4. procedures voor het inspecteren, testen en valideren die vóór, tijdens en na de ontwikkeling van het AI-systeem met een hoog risico moeten worden uitgevoerd en de regelmaat waarmee zij moeten worden uitgevoerd;
5. technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast of geen betrekking hebben op alle relevante eisen van afdeling 2, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met deze eisen;
6. systemen en procedures voor databeheer, met inbegrip van dataverwerving, - verzameling, -analyse, -labeling, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;
7. het systeem voor risicobeheer zoals bedoeld in artikel 9 van de AI-verordening;
8. het opzetten, toepassen en onderhouden van een systeem voor monitoring na het in de handel brengen, overeenkomstig artikel 72 AI-verordening;
9. procedures in verband met het melden van een ernstig incident in overeenstemming met artikel 73 van de AI-verordening;

## Bronnen

Expand Down
6 changes: 5 additions & 1 deletion docs/vereisten/melding_ernstige_incidenten.md
Original file line number Diff line number Diff line change
Expand Up @@ -18,8 +18,12 @@ Aanbieders van in de Europese Unie in de handel gebrachte AI-systemen met een ho
## Toelichting

Aanbieders van AI-systemen met een hoog risico die binnen de EU worden verhandeld, moeten ernstige incidenten melden bij de markttoezichtautoriteiten van de lidstaten waar het incident heeft plaatsgevonden.
Een 'ernstig incident' wordt in artikel 3 van de AI-verordening gedefinieerd als: een incident of gebrekkig functioneren van een AI-systeem dat direct of indirect leidt tot: a) het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon; b) een ernstige en onomkeerbare verstoring van het beheer of de exploitatie van kritieke infrastructuur; c) een schending van de uit het recht van de Unie voortvloeiende verplichtingen ter bescherming van de grondrechten; d) ernstige schade aan eigendommen of het milieu.
Een 'ernstig incident' wordt in artikel 3 van de AI-verordening gedefinieerd als: een incident of gebrekkig functioneren van een AI-systeem dat direct of indirect leidt tot:

1. het overlijden van een persoon of ernstige schade voor de gezondheid van een persoon;
2. een ernstige en onomkeerbare verstoring van het beheer of de exploitatie van kritieke infrastructuur;
3. een schending van de uit het recht van de Unie voortvloeiende verplichtingen ter bescherming van de grondrechten;
4. ernstige schade aan eigendommen of het milieu.

Dit meldingsproces is bedoeld om snel en adequaat te reageren op ernstige incidenten die zich voordoen bij het gebruik van deze AI-systemen, en om passende maatregelen te nemen ter bescherming van de consumenten en het publiek.
Het doel is om de veiligheid en betrouwbaarheid van AI-systemen te waarborgen en mogelijke risico's voor gebruikers te minimaliseren.
Expand Down

0 comments on commit 926fcd3

Please sign in to comment.