De naakt algoritmes van social media

Siem van Woerkom 865 0
Facebook is recent in het nieuws verschenen doordat ze hun algoritmes, om seksuele content te herkennen, aan gaan passen.

Verandering naakt algoritme

Er gaan aardig wat dingen veranderen in het Facebook kamp, van aanpassingen aan hun algoritmes die gebruikt worden om seksuele en haatdragende content te identificeren, tot veranderingen in de werktaken die de manuele content checkers op dit moment hebben. 

Een van de grootste discussie punten van Facebook in de afgelopen 10 jaar is het gesprek over tepels. Noem het Nipplegate, Free the Nipple of WO/MEN, er zijn diverse actiegroepen voorbijgekomen die de algoritmes aangepast willen zien omdat ze het er niet mee eens zijn dat mannen wel met tepels in beeld mogen komen, maar vrouwen niet gezien kunnen worden met een ontbloot bovenlijf. 

Wat er nu gebeurt is dat de AI van Facebook vaak niet goed doorheeft wat hij wel of niet moet censureren. Een penis van een standbeeld? Goed. Een foto van iemand in een natte zwembroek? Geblockt. Volledig naakte vrouw waarbij alleen de tepels bedekt zijn? Prima. Een vrouw die aan het borstvoeden is? Facebookverbod.

Een groep mensen die hier vooral van baalt zijn de kunstenaars, fotografen en artiesten die hun kunst willen delen op het platform. Vandaar dat er vorige week een grote actie in New York was, waarbij demonstranten zich naakt hadden verzameld bij het hoofdkantoor van Facebook. 

Lees ook: Meer dan 100 mensen naakt op de stoep bij Facebook

Rotklus

Wat niet iedereen weet is dat Facebook niet volledig draait op AI, Deep learning en robots. Er zijn ontelbaar veel freelancers over de hele wereld werkzaam voor de gigantische social media gigant. Deze mensen zijn een failsafe voor wanneer de computers niet precies weten hoe en wat. Is dit geweld, naakt, rascistisch? Waar de machine twijfelt komem de goeie ouwe homo sapiens toch nog van pas. Maar dit heeft echter veel nare gevolgen.

Inappropriate content checker wordt vaak genoemd als een van de slechtste banen ter wereld. Stel je voor dat je aankomt op kantoor, een koffie pakt, je eerste dossiers opent en beelden te zien krijgt van kinderporno, moorden, video's van verkrachting en 'revenge porn'. Dat dit niet in de koude kleren gaat zitten is een behoorlijke understatement. Het zorgt er bij veel mensen voor dat ze in een depressie belanden, het is dan ook gebruikelijk dat mensen in deze positie om de zoveel dagen naar een speciale psycholoog moeten om te praten over wat ze hebben gezien en hoe het met hun mentale gezondheid gaat. 

'Laten we dan alles door de machines doen! Niet 90% maar 100!' Zullen veel mensen denken. Echter zit daar een groot probleem aan vast, namelijk censuur. Wanneer een social media platform hun admins van menselijk naar robots zal veranderen verliezen ze ook een bepaalde ethiek. We zullen dan een machine vertrouwen om te bepalen wat juist is en fout. 

Toekomstvisie

Facebook's visie is die van een toekomst waarin de AI zo slim wordt dat het mensen alleen nog nodig zal hebben voor het checken van kleinere en minder belangrijke zaken, zodat deze taak ook niet zo heftig zal worden. Het wil hiervoor gaan zorgen door de Deep Learning algoritmes aan te passen zodat ze alle externe factoren bij een foto of video mee zullen nemen in hun beslissing. Een video wordt geupload; wat is de context? Is deze persoon ooit eerder beboet? Staat hij aangeschreven bij haatzaaiende groepen? Pas daarna zal de AI kijken wat er in de video te zien is en of dit door de beugel kan of niet. Mensen zullen dus een soort gradering krijgen in hoeverre ze waarschijnlijk controversieel materiaal online zullen zetten. Let dus goed op met wat je doet. 

 

afbeelding van Siem van Woerkom

Siem van Woerkom | Redacteur

Bekijk alle artikelen van Siem