Iedereen is enthousiast over kunstmatige intelligentie. Er zijn grote vorderingen gemaakt in de technologie en in de techniek van machine learning. In dit vroege stadium van de ontwikkeling moeten we ons enthousiasme echter misschien enigszins in bedwang houden.
De waarde van AI is nu al te zien in een breed scala aan branches, waaronder marketing en verkoop, bedrijfsvoering, verzekeringen, bankieren en financiën, en meer. Kortom, het is een ideale manier om een breed scala aan zakelijke activiteiten uit te voeren, van het beheren van menselijk kapitaal en het analyseren van de prestaties van mensen tot werving en meer. Het potentieel ervan loopt door de rode draad van de hele bedrijfsecostructuur. Het is nu al meer dan duidelijk dat de waarde van AI voor de hele economie biljoenen dollars waard kan zijn.
Soms vergeten we misschien dat AI nog steeds een handeling in uitvoering is. Vanwege de kinderschoenen zijn er nog steeds beperkingen aan de technologie die moeten worden overwonnen voordat we ons inderdaad in de dappere nieuwe wereld van AI bevinden.
In een recente podcast gepubliceerd door het McKinsey Global Institute, een bedrijf dat de wereldeconomie analyseert, bespraken Michael Chui, voorzitter van het bedrijf en James Manyika, directeur, wat de beperkingen zijn op AI en wat er wordt gedaan om deze te verlichten.
Factoren die het potentieel van AI beperken
Manyika merkte op dat de beperkingen van AI “puur technisch” zijn. Hij identificeerde ze als hoe uit te leggen wat het algoritme doet? Waarom maakt het de keuzes, uitkomsten en voorspellingen die het doet? Dan zijn er praktische beperkingen met betrekking tot de gegevens en het gebruik ervan.
Hij legde uit dat we tijdens het leerproces computers gegevens geven om ze niet alleen te programmeren, maar ook om ze te trainen. ‘We leren ze’, zei hij. Ze worden getraind door hen gelabelde gegevens te verstrekken. Een machine leren objecten op een foto te identificeren of een afwijking in een gegevensstroom te erkennen die erop kan wijzen dat een machine defect gaat, wordt uitgevoerd door ze veel gelabelde gegevens te geven die aangeven dat in deze batch gegevens de machine over gaat te breken en in die verzameling van gegevens staat de machine niet op het punt te breken en de computer zoekt uit of een machine op het punt staat kapot te gaan.
Chui identificeerde vijf beperkingen van AI die overwonnen moeten worden. Hij legde uit dat mensen de gegevens nu labelen. Mensen gaan bijvoorbeeld door foto’s van verkeer en traceren de auto’s en de rijstrookmarkeringen om gelabelde gegevens te creëren die zelfrijdende auto’s kunnen gebruiken om het algoritme te creëren dat nodig is om de auto’s te besturen.
Manyika merkte op dat hij weet van studenten die naar een openbare bibliotheek gaan om kunst te labelen, zodat algoritmen kunnen worden gemaakt die de computer gebruikt om voorspellingen te doen. In het Verenigd Koninkrijk identificeren groepen mensen bijvoorbeeld foto’s van verschillende hondenrassen, met behulp van gelabelde gegevens die worden gebruikt om algoritmen te maken, zodat de computer de gegevens kan identificeren en weet wat het is.
Dit proces wordt gebruikt voor medische doeleinden, wees hij erop. Mensen labelen foto’s van verschillende soorten tumoren, zodat wanneer een computer ze scant, deze kan begrijpen wat een tumor is en wat voor soort tumor het is.
Het probleem is dat er een buitensporige hoeveelheid gegevens nodig is om de computer te leren. De uitdaging is om een manier te creëren waarop de computer sneller door de gelabelde gegevens kan gaan.
Tools die nu worden gebruikt om dat te doen, zijn onder meer generatieve adversariële netwerken (GAN). De tools gebruiken twee netwerken: de ene genereert de juiste dingen en de andere maakt onderscheid of de computer de juiste dingen genereert. De twee netwerken concurreren met elkaar om de computer in staat te stellen het juiste te doen. Met deze techniek kan een computer kunst genereren in de stijl van een bepaalde kunstenaar of architectuur genereren in de stijl van andere dingen die zijn waargenomen.
Manyika wees erop dat mensen momenteel experimenteren met andere technieken van machine learning. Hij zei bijvoorbeeld dat onderzoekers van Microsoft Research Lab bezig zijn met het ontwikkelen van stream-labeling, een proces dat de gegevens labelt door gebruik. Met andere woorden, de computer probeert de gegevens te interpreteren op basis van hoe deze wordt gebruikt. Hoewel het labelen van streams al een tijdje bestaat, heeft het de laatste tijd grote vooruitgang geboekt. Toch is het labelen van gegevens volgens Manyika een beperking die verder moet worden ontwikkeld.
Een andere beperking van AI is dat er niet genoeg gegevens zijn. Om het probleem aan te pakken, verzamelen bedrijven die AI ontwikkelen gegevens over meerdere jaren. Om te proberen de hoeveelheid tijd voor het verzamelen van gegevens te verminderen, wenden bedrijven zich tot gesimuleerde omgevingen. Door een gesimuleerde omgeving binnen een computer te creëren, kunt u meer proeven uitvoeren, zodat de computer veel meer dingen sneller kan leren.
Dan is er nog het probleem om uit te leggen waarom de computer besloot wat hij deed. Dit probleem, dat bekend staat als verklaarbaarheid, gaat over regelgeving en regelgevers die de beslissing van een algoritme kunnen onderzoeken. Als iemand bijvoorbeeld op borgtocht vrijgelaten is en iemand anders niet, zal iemand willen weten waarom. Je zou kunnen proberen de beslissing uit te leggen, maar het zal zeker moeilijk zijn.
Chui legde uit dat er een techniek wordt ontwikkeld die de verklaring kan bieden. Genaamd LIME, wat staat voor lokaal interpreteerbare model-agnostische verklaring, het houdt in dat we naar delen van een model en inputs kijken en kijken of dat de uitkomst verandert. Als u bijvoorbeeld naar een foto kijkt en probeert vast te stellen of het item op de foto een pick-up truck of een auto is, en als de voorruit van de truck of de achterkant van de auto wordt gewijzigd, doet een van die veranderingen maken het verschil. Dat laat zien dat het model zich richt op de achterkant van de auto of de voorruit van de vrachtwagen om een beslissing te nemen. Wat er gebeurt, is dat er experimenten worden gedaan met het model om te bepalen wat een verschil maakt.
Ten slotte zijn bevooroordeelde gegevens ook een beperking voor AI. Als de gegevens die naar de computer gaan bevooroordeeld zijn, is de uitkomst ook bevooroordeeld. We weten bijvoorbeeld dat in sommige gemeenschappen meer politie aanwezig is dan in andere gemeenschappen. Als de computer moet bepalen of een groot aantal politiemensen in een gemeenschap de criminaliteit beperkt en de gegevens afkomstig zijn uit de buurt met veel politie-aanwezigheid en een buurt met weinig of geen politie-aanwezigheid, dan is de beslissing van de computer gebaseerd op meer gegevens uit de buurt met politie en geen of geen gegevens uit de buurt die geen politie hebben. De overbemonsterde buurt kan een scheve conclusie veroorzaken. Dus het vertrouwen op AI kan resulteren in een afhankelijkheid van inherente vooringenomenheid in de gegevens. De uitdaging is daarom om een manier te vinden om de gegevens te “de biasen”.
Dus, omdat we het potentieel van AI kunnen zien, moeten we ook de beperkingen ervan erkennen. Maak je geen zorgen; AI-onderzoekers werken koortsachtig aan de problemen. Sommige dingen die een paar jaar geleden als beperkingen van AI werden beschouwd, zijn dat vandaag niet vanwege de snelle ontwikkeling ervan. Daarom moet je constant bij AI-onderzoekers kijken wat er vandaag mogelijk is.