Volledige afhandeling gebeurt via e-mail & telefoon info@sofie.be
Stuur Sofie een e-mail
info@sofie.be

Blog

Er is een verschil tussen vooringenomenheid en werkelijke observatie – Willen we kunstmatige intelligentie op de pc?

Wat sommige politiek correcte mensen vooringenomenheid noemen, is eigenlijk gewoon Kunstmatige Intelligente (AI) observatie van de werkelijke omgeving. Dus wat is daar mis mee – AI gebruikte waarschijnlijkheid bij het nemen van beslissingen – ooit van gehoord? Iedereen zou. Als een mens geen rekening houdt met wat hij in zijn omgeving ervaart om zijn beslissingen te nemen, dan zou je kunnen zeggen; Het is niet intelligent.

Er was een interessant artikel in Accelerating Intelligence, de nieuwsbrief voor het Singularity Institute getiteld: “The Struggle to Make AI Less Biased than Its Creators”, door Peter Rejcek, gepubliceerd op de Singularity Hub-website. Het artikel vermeldde:

“Het vieze kleine geheim gaat over kunstmatige intelligentie. Nee, niet dat over machines die de wereld overnemen. Dat is een oude. Deze is meer verraderlijk. Datawetenschappers, AI-experts en anderen vermoeden al lang dat het een probleem zou zijn. AI is bevooroordeeld: seksisme, leeftijdsdiscriminatie, racisme, noem maar een isisme, en waarschijnlijker wel dan niet, de resultaten die door onze machines worden geproduceerd, hebben op een of meer manieren een vooroordeel. Maar een opkomende denktank genaamd: ‘Diversity.AI’ gelooft dat onze machines kunnen het beter doen dan hun makers als het gaat om het doorbreken van stereotypen en andere belemmeringen voor inclusie.”

Dit artikel kwam natuurlijk van een linkse socialistische academische scheefheid en POV (standpunt), dus we kunnen het nemen voor wat het waard is. Ja, het artikel gaf talloze voorbeelden van AI-output op gestelde vragen, en we herinneren ons allemaal dat Google’s Image AI-zoekopdracht Gorillas bestempelde als Black (African American) Human Beings, wat ongeveer net zo racistisch is als je kunt krijgen, maar het was een simpele fout vanwege het meten van neusgatgrootte, hoofdomvang, kaakbotten, gelaatstrekken, oogkleur, haarkleur en huidskleur. Moeten we beledigd zijn? Nee, maar misschien moet er wel aan dat FRT (Facial Recognition Technology) AI-algoritme worden gewerkt.

Naast echt machine learning, moet leren, dat betekent fouten maken, en successen hebben en daarvan leren als het ‘slimmer’ wordt toch? De auteur van het hierboven aangehaalde artikel vermeld; “AI is vooroordeel; seksisme, leeftijdsdiscriminatie, racisme, noem maar een isisme,” nou, ik denk dat ons dat is verteld, dat is Donald Trump ook en we hebben hem tot president gekozen, misschien moeten we in dat geval een AI-systeem kiezen om het land te besturen? Ah, zette je aan het denken, nietwaar?

Moeten we AI echt opnieuw programmeren om ‘kunstmatig onintelligent’ te zijn? Net zoals we onze samenleving voor de gek houden om te geloven dat wat zij waarnemen verkeerd is, voor een meer politiek correcte versie? Ik geloof zelf niet dat dat wijs of intelligent is. Misschien is onze AI slimmer dan we het de eer geven en zijn wij de dommen die doen alsof en leven met een leugen van feitelijke en echte observaties? Misschien kunnen we van AI leren om betere en intelligentere versies van onszelf te worden. Vier diversiteit – forceer het nooit. Denk hierover na.

Bron: Lance Winslow

  • Gerelateerde Tags: