Vad du behöver veta om Apples barnsäkerhetsskydd

Vad du behöver veta om Apples barnsäkerhetsskydd

Apple har nyligen meddelat nya barnsäkerhetsskydd som kommer i höst med introduktionen av iOS 15, iPadOS 15 och macOS Monterey.





Vi kommer att titta närmare på dessa utökade barnsäkerhetsfunktioner och tekniken bakom dem nedan.





Skanning av material för sexuella övergrepp mot barn

Den mest anmärkningsvärda förändringen är att Apple kommer att börja använda ny teknik för att upptäcka bilder som visar bilder av barnmisshandel lagrade i iCloud -foton.





Dessa bilder är kända som material för sexuellt övergrepp mot barn, eller CSAM, och Apple kommer att rapportera förekomster av dem till National Center for Missing and Exploited Children. NCMEC är ett rapporteringscenter för CSAM och arbetar med brottsbekämpande myndigheter.

Apples CSAM -skanning kommer att begränsas till USA vid lanseringen.



hur hittar jag wifi -lösenord för android

Apple säger att systemet använder kryptografi och är utformat med integritet i åtanke. Bilder skannas på enheten innan de laddas upp till iCloud-foton.

Enligt Apple behöver du inte oroa dig för att Apple -anställda ser dina faktiska foton. Istället förser NCMEC med Apple hash -bilder med CSAM -bilder. En hash tar en bild och returnerar en lång, unik rad med bokstäver och siffror.





Apple tar dessa hash och omvandlar data till en oläslig uppsättning hash som lagras säkert på en enhet.

Relaterat: Hur iOS 15 skyddar din iPhone -integritet bättre än någonsin tidigare





Innan bilden synkroniseras med iCloud Photos kontrolleras den mot CSAM -bilderna. Med en speciell kryptografisk teknik - privat uppsättningskorsning - avgör systemet om det finns en matchning utan att avslöja ett resultat.

Om det finns en matchning skapar en enhet en kryptografisk säkerhetsbevis som kodar matchningen tillsammans med mer krypterad data om bilden. Kupongen laddas upp till iCloud -foton med bilden.

Om inte ett iCloud Photos -konto överskrider ett specifikt tröskelvärde för CSAM -innehåll, säkerställer systemet att säkerhetskupongerna inte kan läsas av Apple. Det är tack vare en kryptografisk teknik som kallas hemlig delning.

Enligt Apple ger den okända tröskeln en hög noggrannhet och garanterar mindre än en i en biljon chans att felaktigt flagga ett konto.

När tröskeln överskrids kommer tekniken att tillåta Apple att tolka kuponger och matchande CSAM -bilder. Apple kommer sedan att granska varje rapport manuellt för att bekräfta en matchning. Om det bekräftas inaktiverar Apple en användares konto och skickar sedan en rapport till NCMEC.

Det kommer att bli en överklagandeprocess för återinförande om en användare anser att deras konto felaktigt har flaggats av tekniken.

Om du har problem med integriteten med det nya systemet har Apple bekräftat att inga foton kommer att skannas med kryptografitekniken om du inaktiverar iCloud -foton. Du kan göra det genom att gå till Inställningar> [Ditt namn]> iCloud> Foton .

Det finns några nackdelar när du stänger av iCloud -foton. Alla foton och videor lagras på din enhet. Det kan orsaka problem om du har många bilder och videor och en äldre iPhone med begränsat lagringsutrymme.

Bilder och videor som tagits på enheten är inte heller tillgängliga på andra Apple -enheter med iCloud -kontot.

Relaterad: Så här får du tillgång till iCloud -foton

Apple förklarar mer om tekniken som används i CSAM -upptäckten i en vitbok PDF . Du kan också läsa en Apples vanliga frågor med ytterligare information om systemet.

I vanliga frågor noterar Apple att CSAM -detektionssystemet inte kan användas för att upptäcka något annat än CSAM. Företaget säger också att innehav av CSAM -bilder i USA och många andra länder är ett brott och att Apple är skyldigt att informera myndigheterna.

Företaget säger också att det kommer att vägra några krav från regeringen att lägga till en icke-CSAM-bild till hashlistan. Det förklarar också varför icke-CSAM-bilder inte kunde läggas till i systemet av en tredje part.

På grund av mänsklig granskning och det faktum att hasharna som används är från kända och befintliga CSAM -bilder, säger Apple att systemet var utformat för att vara korrekt och undvika problem med andra bilder eller oskyldiga användare som rapporteras till NCMEC.

Smärtan i sig är produkten av smärtan, huvudkunden är bekväm, men jag ger den så låg som tid att arbeta

Ytterligare kommunikationssäkerhetsprotokoll i meddelanden

Ytterligare en ny funktion kommer att läggas till säkerhetsprotokoll i appen Meddelanden. Detta erbjuder verktyg som varnar barn och deras föräldrar när de skickar eller tar emot meddelanden med sexuellt explicita foton.

När ett av dessa meddelanden tas emot blir bilden suddig och barnet varnas också. De kan se användbara resurser och får veta att det är okej om de inte ser bilden.

Funktionen är endast avsedd för konton som skapats som familjer i iCloud. Föräldrar eller vårdnadshavare måste välja att aktivera kommunikationssäkerhetsfunktionen. De kan också välja att bli aviserade när ett barn på 12 år eller yngre skickar eller får en sexuellt uttalad bild.

För barn i åldern 13 till 17 år meddelas inte föräldrarna. Men barnet kommer att varnas och tillfrågas om det vill se eller dela en sexuellt uttalad bild.

Relaterat: Hur iOS 15 använder intelligens för att göra din iPhone smartare än någonsin

Meddelanden använder maskininlärning på enheten för att avgöra om en bilaga eller bild är sexuellt explicit. Apple får ingen åtkomst till meddelandena eller bildinnehållet.

Funktionen fungerar för både vanliga SMS- och iMessage -meddelanden och är inte länkad till CSAM -skanningsfunktionen som vi beskrivit ovan.

Slutligen kommer Apple att utöka vägledningen för både Siri och sökfunktioner för att hjälpa barn och föräldrar att vara säkra online och få hjälp i osäkra situationer. Apple pekade på ett exempel där användare som frågar Siri hur de kan rapportera CSAM eller utnyttjande av barn kommer att få resurser om hur man lämnar en rapport till myndigheter.

Uppdateringar kommer till Siri och Sök efter när någon utför sökfrågor relaterade till CSAM. Ett ingrepp kommer att förklara för användarna att intresset för ämnet är skadligt och problematiskt. De kommer också att visa resurser och partner för att få hjälp med problemet.

Fler förändringar kommer med Apples senaste programvara

De tre nya funktionerna från Apple är utvecklade i samarbete med säkerhetsexperter och är utformade för att hjälpa barn att vara säkra online. Även om funktionerna kan orsaka oro i vissa sekretessfokuserade kretsar, har Apple kommit fram om tekniken och hur den kommer att balansera integritetshänsyn med barns skydd.

Dela med sig Dela med sig Tweet E-post 15 dolda funktioner i iOS 15 och iPadOS 15 som Apple inte nämnde på WWDC

Du har redan hört talas om de stora förändringarna i iOS 15, men här är alla dolda ändringar Apple utelämnade från WWDC.

Läs Nästa
Relaterade ämnen
  • IPhone
  • Mac
  • Äpple
  • Smartphone Sekretess
  • Föräldraskap och teknik
Om författaren Brent Dirks(193 artiklar publicerade)

Brent är född och uppvuxen i soliga västra Texas och tog examen från Texas Tech University med en BA i journalistik. Han har skrivit om teknik i mer än 5 år och gillar allt Apple, tillbehör och säkerhet.

Mer från Brent Dirks

Prenumerera på vårt nyhetsbrev

Gå med i vårt nyhetsbrev för tekniska tips, recensioner, gratis e -böcker och exklusiva erbjudanden!

Klicka här för att prenumerera