Android

Faceapp tar bort "svarta", "indiska", "asiatiska" filter efter offentliga ...

Beskära vinbär röda vinbär svarta vinbär eller vita vinbär - när och hur

Beskära vinbär röda vinbär svarta vinbär eller vita vinbär - när och hur
Anonim

En populär selfie-redigeringsapp, FaceApp, som lanserades tidigare i år och tog selfievärlden med storm, har kommit under eld för att uppdatera sitt gränssnitt med nya filter som enligt uppgift många användare tyckte är rasistiska.

FaceApp fick en bred popularitet eftersom den använde en utbildad algoritm för att redigera användarbilder. Med hjälp av appen kunde människor välja att redigera sin bild på flera olika sätt.

Användare kan lägga till ett leende till sin bild, bli yngre eller äldre, ändra kön och till och med ändra din stil.

Men tillägget av "Indien", "Asiatisk", "Svart" och "Kaukasisk" etniska filter har visat sig vara skadligt för appens rykte. Dessa filter skulle inte bara förändra hudens hud och utseende utan också hårets stil och färg.

Mer i nyheter: Den här appen hjälper dig att ta den perfekta selfie

VD Yaroslav Goncharov avgav ett uttalande: "de nya kontroversiella filtren kommer att tas bort inom de närmaste timmarna".

Användare behöver inte uppdatera sina appar från Play Store för att bli av med de nya filtren eftersom de kommer att tas bort från FaceApps server.

"FaceApps" etnicitetsfilter "är en ganska hemsk idé. Som kanske en av de värsta idéerna, ”skrev en Twitter-användare.

En annan användare anklagade företaget för att ”ställa in fältet för rasistisk (augmented reality) med sin hemska nya uppdatering”.

”Filterna för ändring av etnicitet har utformats för att vara lika i alla aspekter. De har inga positiva eller negativa konnotationer förknippade med dem. De representeras till och med av samma ikon, ”berättade Yaroslav Goncharov till The Verge.

Läs också: Detta kan vara det snabbaste sättet att ta selfies på Android

Detta är inte första gången FaceApp utsätts för kritik för att vara rasistisk. Användare hade tidigare rapporterat att det "heta" filtret lättare hudtonen i valfri bild.

Under denna händelse kom företagets verkställande direktör fram och konstaterade att denna incident orsakades eftersom algoritmen tränades med att använda bilder av människor med rättvis hud och som ett resultat började maskinen associera 'het' med rättvis hud.

(Med ingångar från IANS)