Beste bezoeker, u bezoekt onze website met Internet Explorer. Deze browser wordt niet meer actief ondersteund door Microsoft en kan voor veiligheids- en weergave problemen zorgen. Voor uw veiligheid raden wij u aan om een courante browser te gebruiken, zoals Google Chrome of Microsoft Edge.
Zoeken
Sluit dit zoekvak.

Ledenenquête

ISACA NL Chapter is er voor én door de leden. Om u zo goed mogelijk van dienst te kunnen zijn, staan we graag in nauw contact met onze leden. Wij nodigen onze leden uit voor een korte enquête om te begrijpen wat u belangrijk vindt en waar u tevreden over bent. We zullen onze ambities als vereniging – in het bijzonder onze informatievoorziening – daarop afstemmen.

De vragenlijst bestaat uit 15 meerkeuzevragen. We zijn vooral benieuwd naar uw persoonlijke toelichting en tips die u aan het einde van elke vraag kunt geven. Alle inzendingen zijn anoniem, wel vragen we u aan het einde om enkele demografische gegevens zoals regio, leeftijd, etc.  Invullen is mogelijk tot 8 september 2019. De resultaten zullen worden gedeeld tijdens de Vrijwilligersavond op 19 september a.s. en tijdens het Ledenpanel op 7 oktober a.s.

Gerelateerde berichten

  • Nieuws ·

Ontvang korting op een cursus van Security Academy

Wist je dat ISACA-leden 10% korting ontvangen op het totale cursusportfolio van Security Academy? Lees hier hoe je deze korting verzilvert. Did you know that ISACA members receive a 10% discount on the entire Security Academy course portfolio? Check how to redeem this discount.
  • ISACA NL Journal ·

Balancing Privacy and Security: Navigating the Future of Federated Learning and AI

By Armin Shokri Kalisa and Robbert Schravendijk - Artificial intelligence is infiltrating more and more applications. This raises privacy concerns regarding the vast amounts of data required to train these AI models. One of the proposed solutions is a framework called Federated Learning. This framework does, however, not guarantee security from attacks. This article covers how attackers can use backdoor attacks to poison the model resulting from Federated learning and what steps can be taken to make it more robust against these attacks.

Plaats een reactie

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

We gebruiken functionele en analytische cookies om ervoor te zorgen dat de website optimaal presteert. Als u doorgaat met het gebruik van deze site, gaan we ervan uit dat u hiermee akkoord gaat. Meer informatie vindt u in onze Privacyverklaring.