Beste bezoeker, u bezoekt onze website met Internet Explorer. Deze browser wordt niet meer actief ondersteund door Microsoft en kan voor veiligheids- en weergave problemen zorgen. Voor uw veiligheid raden wij u aan om een courante browser te gebruiken, zoals Google Chrome of Microsoft Edge.
Search
Close this search box.
  • Nieuws
  • Uitgelicht: kennisgroep Privacy & GPDR

Uitgelicht: kennisgroep Privacy & GPDR

ISACA NL Chapter heeft verschillende kennisgroepen, waaronder de kennisgroep Privacy & GDPR. De kennisgroep wordt gevormd door specialisten met kennis van zowel juridische, privacy operationele processen, als ook security (technische) processen (in diverse branches).

Lees meer over de doelstellingen van de kennisgroep Privacy & GPDR>>

Bijdrage leveren?

Een ieder is welkom om deel te nemen aan de kennisgroep en een bijdrage te leveren aan een van de volgende aandachtsgebieden:

  • kunstmatige intelligentie
  • technische en organisatorische maatregelen ISO27002
  • certificering ISO 27701 privacy
  • persoonsgegevens in de cloud
  • data privacy impact assessment
  • internationaal delen van persoonsgegevens
  • online identifiers marketing (cookies)
  • rechten van betrokkenen
  • nationale actuele toepassing van de AVG
  • pandemie – thuiswerken, volgsystemen, etc
  • bijzondere persoonsgegevens – zorg, overheid, etc
  • medewerkers specifieke rechten
  • data loss prevention binnen organisaties

Maak kennis met de kennisgroep Privacy & GPDR>>

Gerelateerde berichten

  • Nieuws ·

Ontvang korting op een cursus van Security Academy

Wist je dat ISACA-leden 10% korting ontvangen op het totale cursusportfolio van Security Academy? Lees hier hoe je deze korting verzilvert. Did you know that ISACA members receive a 10% discount on the entire Security Academy course portfolio? Check how to redeem this discount.
  • ISACA NL Journal ·

Balancing Privacy and Security: Navigating the Future of Federated Learning and AI

By Armin Shokri Kalisa and Robbert Schravendijk - Artificial intelligence is infiltrating more and more applications. This raises privacy concerns regarding the vast amounts of data required to train these AI models. One of the proposed solutions is a framework called Federated Learning. This framework does, however, not guarantee security from attacks. This article covers how attackers can use backdoor attacks to poison the model resulting from Federated learning and what steps can be taken to make it more robust against these attacks.

Plaats een reactie

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

We gebruiken functionele en analytische cookies om ervoor te zorgen dat de website optimaal presteert. Als u doorgaat met het gebruik van deze site, gaan we ervan uit dat u hiermee akkoord gaat. Meer informatie vindt u in onze Privacyverklaring.