Machine learning steeds meer een continu proces
'Blijven leren' geldt niet langer alleen voor de mens
Voor de mens geldt het adagium 'leren − blijven leren', en voor machines is dat tegenwoordig dankzij machine learning (ML) feitelijk niet anders. Door modellen te trainen op basis van gegevens leren machines voorspellingen te doen, patronen te herkennen en/of beslissingen te nemen. Ontwikkelingen als meta en transfer learning en verkennend leren brengen ML op een steeds hoger plan, terwijl onder meer Explainable AI en Automated Machine Learning ervoor zorgen dat een en ander het menselijk brein niet boven het hoofd groeit.
Principe
Het idee achter machine learning (hierna ML) – een subveld van artificial intelligence (AI) – is het trainen van modellen op basis van gegevens, zodat ze na verloop van tijd in staat zijn voorspellingen te doen, patronen te herkennen en/of beslissingen te nemen. Hierbij wordt gebruik gemaakt van een combinatie van soft- en hardware waarmee 'big data' kan worden geanalyseerd. Het uitgangspunt daarbij is: een goede analyse van de juiste data leidt tot meer inzicht in de werking en het gedrag van machines en installaties. Maar wat is goede data en wat is een goede analyse?
Goede data
Elke vorm van data analytics staat of valt bij de kwaliteit van de gegevens. Vaak zijn die er volop, maar vaak ook zijn die niet van de juiste kwaliteit. Zo ontbreekt het nogal eens aan de juiste features, en ook een mix van bijvoorbeeld test- en operationele data is als uitgangspunt niet ideaal. Gezien de krachtige computers die nodig zijn om deze 'gegevensbrij' te analyseren, is het zaak te investeren in de kwaliteit van data ('garbage in, garbage out').
Een gedegen analyse vergt het vermogen data in de juiste context te plaatsen en op de juiste wijze te interpreteren
Goede analyse
Daarvan is sprake bij een even grondige als systematische beoordeling van een gecreëerde dataset. Sleutelbegrippen daarbij zijn 'structuur' en 'logisch redeneren', en verder dient een goede analyse gevrijwaard te zijn van vooringenomenheid en/of subjectieve interpretaties. Het is zaak te focussen op de voor het geformuleerde analysedoel relevante aspecten en daarnaast oog te hebben – en houden – voor onderliggende oorzaken en/of patronen. Een gedegen analyse vergt het vermogen data in de juiste context te plaatsen en op de juiste wijze te interpreteren.
Blijven leren
Leren is voor de mens een continu proces geworden, en voor machines is dat dankzij ML inmiddels niet anders. Zo stellen continual learning-algorithms modellen in staat zich voortdurend aan te passen aan veranderende omstandigheden en nieuwe gegevens, zonder dat dit ten koste gaat van wat eerder is geleerd; essentieel voor toepassingen waarbij data en omstandigheden aan verandering onderhevig zijn.
Meta en transfer learning hebben ertoe geleid dat een model niet alleen presteert met betrekking tot de specifieke taken waarvoor het is getraind, maar ook in staat is effectief te functioneren in tot nu toe onbekende situaties. Hierdoor vermindert de behoefte aan grote hoeveelheden gelabelde data (zie ook het item 'Semi-supervised en supervised learning') terwijl de trainingsefficiëntie verbetert.
Ook opvallend is de geboekte vooruitgang ten aanzien van het zogeheten verkennend leren. Dit stelt modellen in staat zonder verdere menselijk interventie nieuwe taken en/of omgevingen te verkennen en daarvan te leren, wat de deur opent richting een grotere mate van automatisering binnen het ML-proces.
Vormen van ML
Een logisch gevolg van de geschetste ontwikkelingen is een permanente groei van het aantal vormen van ML.
Deep learning
Hierbij leren modellen met behulp van neurale netwerken (zie kader) patronen en verbanden te herkennen, clusteren en classificeren. Dit stelt machines in staat massa's data te verwerken en te begrijpen, patronen te herkennen en op basis daarvan beslissingen te nemen. Het maakt leren op meerdere abstractieniveaus mogelijk waardoor het takenpakket kan worden uitgebreid met zaken als beeld- en spraakherkenning en natuurlijke taalverwerking.
Federated learning
Hierbij is het leerproces gedecentraliseerd: de training vindt plaats op meerdere apparaten of servers die lokaal gegevens bevatten. Het model wordt rechtstreeks naar de apparaten verstuurd – de privacygevoelige informatie blijft ter plaatse – en de bijgewerkte modelparameters worden periodiek verzameld en gecombineerd op een centrale server. Dit opent de mogelijkheid modellen te trainen met gegevens die zijn verspreid over verschillende locaties.
Reinforcement learning
Hierbij leert een agent, in dit geval een machine, op welke wijze optimaal gebruik kan worden gemaakt van de interactie met de omgeving. Tijdens dit leerproces is er sprake van feedback: gunstige acties worden beloond, ongunstige bestraft; expliciete instructies ontbreken daarbij. Het uiteindelijk doel is door middel van trial-and-error te komen tot een strategie die leidt tot het gewenste resultaat.
Semi-supervised en supervised learning
Bij semi-supervised learning is sprake van een hybride aanpak waarbij zowel gelabelde als ongelabelde gegevens worden gebruikt. Bij gelabelde gegevens is elke gegevensinstantie gekoppeld aan een label/categorie die de gewenste uitvoer vertegenwoordigt; ze dienen als 'juiste antwoorden' of 'correcte classificaties' voor de gegevensinstanties. Bij de ongelabelde variant ontbreken deze. Supervised learning maakt uitsluitend gebruik van een gelabelde dataset.
Tiny Machine Learning (TinyML)
Deze vorm is geschikt voor apparatuur met een beperkte rekenkracht, energieopslag- en/of geheugencapaciteit. Dit vergt een efficiencyslag ten aanzien van kwantisatie en modelcompressie (zie kader) en het gebruik van gespecialiseerde hardware. Door het overdragen van intelligentie op edge-apparaten zijn deze in toenemende mate in staat autonoom en efficiënt te opereren in realtime toepassingen, bijvoorbeeld slimme sensoren en IoT-apparaten.
Transfer learning
Hiervan is sprake wanneer een voor een specifieke taak getraind model wordt gebruikt voor een daaraan verwante taak. Het model kan dan 'terugvallen' op de in een eerder stadium opgedane kennis, zodat het proces niet weer van voren af aan hoeft te worden doorlopen. Het leerproces verloopt daardoor sneller, is dus goedkoper en leidt tot betere prestaties.
Unsupervised learning
Hierbij wordt gebruik gemaakt van ongelabelde gegevens (zie eerder). Het doel is het ontdekken van verborgen patronen of structuren binnen een dataset zonder gebruik te maken van vooraf bekende labels. Een dergelijke benadering leidt vaak tot (nadere) inzichten in de aard en de opbouw van de gegevens, wat bijvoorbeeld weer kan leiden tot de clusteridentificatie en feature extraction.
De doos van Pandora?
De opmars van ML is een feit, en dat roept bij sommigen beelden op van Pandora's box oftewel verlies van controle. Dat hierop reeds is geanticipeerd, bewijst Explainable AI, kortweg XAI. Hiervan is sprake wanneer een kunstmatig intelligentiesysteem het vermogen heeft op een transparante, voor een mens begrijpelijke manier toe te lichten hoe door het systeem getrokken conclusies en/of gedane voorspellingen tot stand komen. Dit wordt onder meer mogelijk gemaakt door het gebruik van interpreteerbare algoritmen en het toegankelijk maken van de besluitvorming.
Dankzij de komst van steeds nieuwere algoritmen, technieken en benaderingen is ML zonder twijfel een 'blijvertje'
Om te voorkomen dat ML iets wordt voor de 'happy few' – lees: experts – is er Automated Machine Learning (Auto-ML), een vorm van ML die erop is geënt het gebruik van ML voor niet-experts gemakkelijk(er) te maken: een uitgebreide kennis van de onderliggende algoritmen en technieken is dan niet nodig. Dit vereenvoudigt niet alleen de hyperparameter-tuning (zie kader), maar ML neemt ook het selecteren en trainen van het model over en voert een reeks automatische optimalisaties uit, waaronder datavoorbereiding, modelselectie en -validatie.
Blijvertje
Dankzij de komst van steeds nieuwere algoritmen, technieken en benaderingen is ML zonder twijfel een 'blijvertje'. Naar verwachting zal er een verdere verschuiving optreden richting edge computing en on-device ML (zie kader). Dit zal leiden tot snellere inferentie – het afleiden van nieuwe kennis uit bestaande knowhow – betere privacybescherming en verminderde afhankelijkheid van cloud services.
Een nieuwe loot aan de stam is multimodaal leren. Bij deze vorm van ML, die zich nog in de verkennende fase bevindt, is er sprake van een combinatie van informatie uit bijvoorbeeld tekst, afbeeldingen, spraak en/of video die het model in staat stelt nauwkeurige(r) voorspellingen te doen dan wel complexe(re) taken uit te voeren.
Dergelijke en andere innovaties zullen ML ongetwijfeld op een hoger plan brengen. Helaas geldt in toenemende mate ook voor ML-modellen dat deze bestand dienen te zijn tegen allerlei aanvallen van buitenaf, bijvoorbeeld adversariale aanvallen (zie kader) en/of veranderingen in de gegevensverdeling. Safety first dus, want ook bij ML ligt cybercriminaliteit op de loer.
Belangrijke begrippen
Adversariale aanvallen, doelbewust aangebrachte wijzigingen in de invoerdata om het model te misleiden dan wel verkeerde voorspellingen te genereren.
Edge computing, gedistribueerde computertechnologie die lokale gegevensverwerking faciliteert waardoor alleen nog relevante informatie naar de cloud hoeft te worden verzonden. Dit verlaagt de bandbreedte en de kosten van gegevensoverdracht, en biedt voordelen op het gebied van cyber security.
Hyperparameter tuning, de fase van het proces waarin de hyperparameters van een ML-model – bijvoorbeeld de leersnelheid en de batchgrootte – worden afgesteld teneinde de prestaties te optimaliseren. Dit moet gebeuren voorafgaand aan het trainingsproces.
Kwantisatie, het verminderen van de precisie van numerieke berekeningen – bijvoorbeeld door reductie van het aantal bits dat in neurale netwerken gewichten en activaties representeert – dit om de efficiëntie van apparaten met een beperkte rekenkracht te verbeteren.
Modelcompressie, wordt gebruikt om ML-modellen te verkleinen zonder dat dit ten koste gaat van hun voorspellende prestaties. Een proces van experimenteren en finetunen moet daarbij leiden tot juiste balans tussen grootte en prestatievermogen.
Neurale netwerken, AI-modellen met onderling verbonden knooppunten (nodes) met een structuur gebaseerd op de zenuwcellen in het menselijk brein. Door training leren deze nodes patronen en verbanden herkennen, en deze te clusteren en classificeren.
On-device ML, hiervan is sprake wanneer training van ML-modellen rechtstreeks op het apparaat plaatsvindt in plaats van op externe servers of in de cloud. Dit werkt sneller en is bovendien aanzienlijk veiliger.
Met medewerking van Lenze