Apple helpt binnenkort met de beste bedoelingen uw iCloud en iMessage privacy om zeep
Dienstmededeling voor alle iOS'ers!
Okay, vrij technisch verhaal, dus we citeren gewoon lekker sec in de taal van de techniek. Maar het komt er op neer dat Apple binnenkort al uw automatische iCloud-uploads tegen een kinderporno-database houdt. En foto's en berichten verstuurd via iMessage door en naar minderjarigen per machine learning op het toestel zelf worden getoetst op vunzigheid. Bij kinderen onder de 13 worden de ouders bij een rode vlag ingelicht als het toestel onderdeel uitmaakt van een Apple familie-account. Kortom, de beste bedoelingen, maar. En dat terwijl Apple voorheen een kampioen van end-to-end versleuteling was.
**Dat iCloud ding
**Is dus een " feature that will scan all photos as they get uploaded into iCloud Photos to see if they match a photo in the database of known child sexual abuse material (CSAM) maintained by the National Center for Missing&Exploited Children (NCMEC). The other feature scans all iMessage images sent or received by child accounts—that is, accounts designated as owned by a minor—for sexually explicit material, and if the child is young enough, notifies the parent when these images are sent or received. This feature can be turned on or off by parents."