Apple skrinlegg CSAM

Vegen til helvete i brulagt med dei beste intensjonar, heiter det. Sommaren 2021 lanserte Apple planane om å legge til rette for å skanne etter CSAM (Child Sexual Abuse Material) i dine data. Det var fleire enn meg som var i harnisk over dette. Gjerne les deg opp på det eg har posta tidlegare:

Det er ikkje det at eg forsvarer dei som sit på slikt materale. Men åpnar ein slusene for skanning etter noko, er det fort at det breier om seg og det blir krav om å skanne etter det eine, det andre, tredje osv. Ha på minne at det ein person kallar terrorist kan vere ein anna sin fridomskjempar. Vi grensar til eit stort land som ikkje lenger er fritt, men under jarnhand.

Det er med stor glede eg ser Apple skrinlegg sine planar. Apple skal ha ros for å ha innsett at dette vart feil og gjorde det einaste rette.

I tillegg kjem Apple til å auke personvernet ved at dei tilbyr ende-til-ende-kryptering av dine iCloud-data (Advanced Data Protection for iCloud). Om litt kan du slå det på og Apple vil ikkje lenger kunne få tilgang til dine data om dei vil. Berre hugs å ta vare på krypteringsnøkkelen, uten den får heller ikkje du tilgang til dine data.

Legg att eit svar

Fill in your details below or click an icon to log in:

WordPress.com logo

Du kommenterer no med WordPress.com-kontoen din. Logg ut /  Endre )

Twitter-bilde

Du kommenterer no med Twitter-kontoen din. Logg ut /  Endre )

Facebook-foto

Du kommenterer no med Facebook-kontoen din. Logg ut /  Endre )

Koplar til %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.