Het gebruik van AI-hulpmiddelen als tekstgeneratoren en beeldcreatie-apps is niet zonder risico's. Het Verbond van Verzekeraars deelt de waarschuwing van het Digital Trust Center dat cybercriminelen de tools graag gebruiken voor frauduleuze praktijken. In samenwerking met de politie deelt het DTC tien tips.

  1. Voer vertrouwelijke gesprekken alleen face-to-face.
  2. Bij twijfel over de identiteit van de persoon aan de telefoon, stel dan voor om even terug te bellen.
  3. Stel een belevingsvraag. Bijvoorbeeld: hoe is het gesprek gisteren gegaan?
  4. Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare modellen zoals namen. De systemen zijn gericht op het genereren van teksten "die lijken op".
  5. ChatGPT is geen zoekmachine. Er zit geen database achter. Gebruik het daarom niet als feiten belangrijk zijn.
  6. Maak eventueel afspraken om facturen alleen af te handelen als de bron te controleren is.
  7. Stem met andere partners in de keten af welke oplossingen er zijn om de authenticiteit van de afzender (bijvoorbeeld van facturen) vast te stellen.
  8. Grijp terug op adviezen die al gelden voor phishing of CEO-fraude. Deze vormen van cyber blijven in de basis gelijk, ook als AI als hulpmiddel wordt ingezet.
  9. Bereid vragen voor het aanschaffen van nieuwe software. Hoe maakt de software gebruik van AI?
  10. En ten slotte: zorg voor menselijk contact. “Als je het niet op LinkedIn zou zetten, moet je het ook niet invoeren op ChatGPT", benadrukt Manon den Dunnen, Strategisch Specialist Digitaal bij de politie. “Voordat je het weet, komt jouw informatie terug in teksten die zijn gegenereerd voor anderen.”

Bron: Verbond van Verzekeraars