Maskininlärning för att förstå och optimera processer
Som en följd av de resultat som uppnåddes inom ramen för projektet Den Digitala Stambanan har en spännande PiiA-aktivitet runt artificiell intelligens (AI) och maskininlärning genomförts i samverkan mellan företagen BillerudKorsnäs, Quva Oy och forskningsinstitutet RISE. Insikterna från arbetet visar på potentialen med ny teknik för att förstå och optimera processer, samtidigt som det visar att det inte finns några enkla vinster att hämta hem.
Tankarna kring detta inleddes hösten 2016 med ett möte mellan Helena Jerregård, RISE (då VD för SICS Swedish ICT Västerås AB) och Olle Steffner, director of IP management vid BillerudKorsnäs. De talade om spjutspetsprojekt som skulle genomföras där Vinnova ville se projekt som bröt mark vad gällde artificiell intelligens, vilket i den här kontexten omfattar maskininlärning och djupinlärning.
– Då vi var intresserade av detta så tackade vi ja på stående fot, vi hade tidigare från ledningen fått uppdraget att undersöka området och vad det kunde innebära för oss, berättar Olle. Då var det här förhållandevis nya begrepp och det var många som funderade kring vad det kunde betyda i förlängningen. Att digitalisering var något väsentligt för industrin var en ganska färsk insikt.
Olle och hans kollegor träffade olika parter i ett ”förkonsortium”, vilket ledde till Vinnova-projektet Deep Process Learning med Peltarion, Pulpeye, RISE och Sandvikens kommun. Parallellt påbörjade BillerudKorsnäs ett arbete där tanken var att se om det gick att förutsäga kappatalet för en pappersmassa, ett mått på hur välkokt den är. De hade ett antal intresserade personer på bruket i Gävle som ville se en genomlysning av en av deras kokare. Efter ett första försök med en djupinlärningsalgoritm tillsammans med Peltarion kontaktades det finska AI-programföretaget Quva som fick gå igenom samma data med sina algoritmer för maskininlärning. Deras upplägg ledde till resultat som var så pass lovande att en implementation testades, dock utan att nå hela vägen fram.
Enkelt uttryckt berodde det på att förutsägningen inte var tillräckligt tillförlitlig för att operatören skulle våga använda resultaten för styrning. De tyckte sig ändå se en affärspotential och ville gärna se en implementation av maskininlärning i en verklig process för att se hur det fungerar i verkligheten. Efter en del diskussioner beslutade de sig för att försöka igen men på ett annat bruk, där de fastnade för batchkokningen vid Karlsborgsverken. Även här fanns det eldsjälar på plats.
– Projektet startade som ett ”Proof of Concept” då vi tittade över fabriken för att se och förstå vad vi kunde göra med ny teknik, berättar Robert Storholm, systemingenjör på BillerudKorsnäs Karlsborgsverken. Diskussionerna fokuserades på tidiga delar av processen där vi kunde samla mycket data.
Här finns mycket taggar – sensorer och mätpunkter – för datainsamling, men det var samtidigt ganska ostrukturerat. Det initiala arbetet var därför att bygga en struktur kring hur taggarna hängde ihop och dess relevans för predikteringen. Enligt Tapio Manninen, IT-chef vid Quva Oy, var ändå datainhämtningen i Karlsborg enkel och det behövdes inte så mycket förbehandling av den för att den skulle vara användbar. Efter en del diskussioner hade alla en tydlig förståelse för IT-infrastrukturen och vilken data som behövdes.
– Arbetet var i linje med annan processindustri, problemet är sällan att få fram själva datan, konstaterar Tapio. Däremot krävde processen i sig med batchproduktion fördelad mellan separata kokare en del extra arbete, framförallt behövdes ordentlig domänkunskap för att identifiera rätt mätpunkter genom produktionslinjen.
De tankade ur data om hur processen hade körts under en längre tid och med hjälp av denna byggde Quva en modell för att förutsäga kappatalet. Tanken med predikteringen är att styra parametrarna för att få ett jämnare kappatal, men för att introducera systemet måste det hålla måttet större delen av tiden och det måste finnas en tilltro till att styrningen fungerar. Om det fungerat som de önskade så hade de lyckats gå från styrning med ganska grov feedback till ett mer realtidsstyrt kokarförlopp.
– Tyvärr blev det inte riktigt bra nog för att låta styrsystemet dra nytta av det, säger Robert. Vid simulering såg vi en förbättring men inte stor nog för en implementering.
Ur databehandlingssynpunkt var problemet att betydelsen av enskilda sensorers mätningar ändrades över tid på grund av den pågående processen. Exempelvis har koktemperaturen helt olika betydelse i tillagningsfasen och kylningsfas. Detta är karaktäristiskt för kontinuerliga processer, men även om komplexiteten adderade en del extra arbete så var det ingen större utmaning. Det var dock ett arbete som måste göras.
– Den största utmaningen var nog snarare att utvärdera analysens affärspotential, oavsett hur avancerade analysmetoder som utvecklas att förutsäga massakvaliteten så spelar det ingen roll förrän du kan bevisa att du uppnår en betydande processförbättring, säger Tapio. Projektet var banbrytande med tanke på att den aspekten var med från början. Även om det endast var möjligt att göra grova uppskattningar av affärsfördelarna så gav simuleringarna ändå en större insikt och kunde styra projektet i rätt riktning.
Den absolut största fördelen som Robert ser är att när de nu driver olika projekt och pratar om att samla data så vet de var de ska tagga och när, det vill säga när i processen olika parametrar är aktuella. Historiskt har de loggat sådant som varit relevant för människan, som då förstått var i processen det var. Det kan inte en maskin lära sig, algoritmerna kan nog fungera bra men de måste ha tillgång till mätningar som är relevanta.
– Vi har vänt på många stenar, naturligtvis kan vi processen men vi har lärt oss andra saker, säger Robert. Jag tror att vi kommer göra fler projekt inom samma kategori, men kanske inte satsvis utan i en kontinuerlig process.
Som Tapio nämnde är en viktig erfarenhet att förmedla att det förutom ”maskininlärnings-kunskap” såsom statistik, datainsamling och databearbetning behövs domänkunskap. Om en process ska förbättras, stabiliseras eller optimeras så måste det redan från början finnas en djup kunskap om processen på plats.
– Jag har lärt mig en hel del nytt om regleringen av batchkokning och en insikt är att de som utvecklade kokarstyrning på 60- och 70-talet var riktigt smarta och de kunde verkligen använda den teknik som fanns, säger Olle.
Budskapet är ändå att det går att använda maskininlärning för att förstå och optimera processer. Erfarenheten hittills säger samtidigt att det inte finns några stora och enkla vinster att hämta hem. Precis som vid all automation så är det ett envist arbete med att förstå processen och förstå varifrån variationerna kommer för att kunna optimera utfallet.
– Maskininlärning liknar mer ett automationsarbete än något nytt ”djur” som trollar fram nya insikter utan krav på processförståelse, avslutar Olle. Häpnadsväckande disruptioner drivna av AI kanske kommer även i vår bransch men erfarenheten härifrån är att utvecklingen närmaste åren snarare kommer att handla om problemlösningar liknande automationsutmaningar än stora upptäckter och överraskande resultat.