Förstärkt verklighet

I vår första artikel etablerade vi ERP:n som "dirigenten" för det smarta lagret. Nu ska vi titta på det första instrumentet i orkestern: Augmented Reality (AR) .
I alla lager (fordon, industri eller anläggningstillgångar) ligger den högsta kostnaden och den enskilt största felkällan ofta i de "sista 10 metrarna" – den manuella plockningen.
I en miljö där hastighet och precision har blivit dominerande drivkrafter har operatörerna länge varit nerböjda och ständigt tittat bort från sitt arbete för att kontrollera en papperslista eller en handhållen RF-skanner. Denna kontextväxling är ineffektiv och grundorsaken till misstag (fel artikel, fel kvantitet, fel låda).

AR-visionsplockning
Förstärkt verklighet (AR) löser detta genom att placera data direkt i operatörens synfält. Vi talar om en fundamental processförändring som skapar en "handsfree" och "ögon-upp"-operation.
Det är viktigt att förstå varför detta blir allt vanligare nu. Tidiga industriella smarta glasögon, som de första Google Glass eller Vuzix M-serien, var pionjärer men ofta skrymmande. De hade skärmar med ett enda öga, begränsad batteritid och ett smalt synfält. Hårdvaran som presenterades 2024 och 2025, såsom Vuzix Z1 eller XReal Air- serien, representerar ett enormt språng. Den nya standarden som uppnåtts är:
- Lätta: Ofta omöjliga att skilja från vanliga skyddsglasögon, utformade för komfort hela dagen.
- Kikare: Färgdisplayer för båda ögonen, vilket skapar en verkligt förstärkt vy.
- Bredare synfält: Möjliggör visning av mer information utan att blockera förarens sikt.
- Inbyggd AI: Bättre bearbetning för snabbare objekt- och textigenkänning.
Denna utveckling mot en bekväm och kraftfull bärbar enhet är katalysatorn för att göra "Vision Picking" till en skalbar verklighet idag.

Hur AR transformerar LN-plockningsflödet
Låt oss simulera ett verkligt fall.
I ett traditionellt lager använder en operatör en RF-skanner för att kontrollera plocklistan.
De sitter med huvudet nedåt, läser en liten tumskärm, går till gången, skannar lådan, kontrollerar skärmen igen för kvantitet, plockar och bekräftar sedan. Nu ska vi tillämpa AR, orkestrerad av Infor LN:
- LN genererar plocklistan baserat på en order.
Denna process ändras inte; ERP-systemet förblir "ledaren". - ION skickar den första plockinstruktionen (t.ex. "Plocka 4 enheter av artikel X från gång 05, fack 02") till AR-programvaran.
- AR-guidad exekvering:
- Navigering med blicken uppåt: Operatören ser "Gång 05, Korg 02" i sin synvinkel med en digital pil som vägleder dem. De går "handsfree" utan att titta ner.
- Visuell bekräftelse: Vid ankomsten tittar operatören på behållarens streckkod. De smarta glasögons kamera skannar den direkt och operatören ser en grön "bock" i sin syn.
Detta bekräftar platsen. - Artikelverifiering: Displayen visar "Plock 4" och en bild av artikeln (hämtad från Infor LN:s artikelbasdatasession).
Denna visuella kontroll förhindrar att fel artikel plockas. - Handsfree-funktion: Operatören väljer de fyra föremålen med båda händerna och förblir fokuserad.
- Bekräftelse i realtid: Operatören bekräftar plockningen via en bärbar ringskanner eller ett röstkommando.
Denna åtgärd skickas tillbaka till Infor LN i realtid, vilket sluter loopen på den specifika plocklinjen.
Operatören får redan nästa instruktion ("Gång 07, Fack 04") innan de har vänt sig om. Detta eliminerar kontextväxling, minimerar mänskliga fel och optimerar rörelsen. Denna teknik ger mätbar ROI inom logistik.
Fall 1: Det klassiska lagret (DHL Supply Chain)
DHL är pionjären här.
Deras första pilotprojekt i Nederländerna (Bergen op Zoom), som genomfördes för deras kund Ricoh, bevisade konceptet. De implementerade "Vision Picking" med hjälp av Vuzix M100 smarta glasögon och Ubimax-programvara. Deras operatörer fick orderinformation direkt i sitt synfält, vilket ledde dem till rätt plats samtidigt som de höll händerna fria.
-
- Resultatet: Pilotprojektet var mycket framgångsrikt. Som beskrivs i deras pressmeddelande uppnådde DHL en effektivitetsökning på 25 % i plockprocessen.
De noterade också hög noggrannhet och positiv feedback från anställda, som tyckte att systemet var lätt att använda. Lösningen var så framgångsrik att den lanserades globalt.
Fall 2: Ett modernt fall (Amazon “Last Mile”)
Detta Amazon-fall är fascinerande och väldigt modernt, eftersom det flyttar AR från lagret till leveransbilen. Principen är identisk, men "operatören" är föraren. Amazon utvecklade denna nya AR-funktion internt för att förbättra den sista milen.
Användningsfall: Förare använder smarta glasögon (anpassad hårdvara) som matas med data om deras rutt och last. När en förare anländer till en hållplats ger AR-displayen navigationsledtrådar och leveransinformation. Men den avgörande aspekten är att den hjälper dem att lokalisera det specifika paketet inuti skåpbilen, en operation som slösar bort mycket tid. Förare ser paketinformation (som adressen) som ett överlägg, vilket gör att de kan identifiera rätt låda snabbare.

-
- Resultatet är en "handsfree"-lösning som sparar tid och förbättrar noggrannheten.
Den ökar också säkerheten, eftersom förarna inte ständigt tittar ner på en handhållen enhet. - Länk : Om Amazon: Hur smarta glasögon hjälper Amazons leveransförare
- Resultatet är en "handsfree"-lösning som sparar tid och förbättrar noggrannheten.
Oavsett om det är i gången eller i leveransbilen ger Augmented Reality den mänskliga operatören "superkraften" av realtidsdata utan den kognitiva belastningen att behöva titta bort. Det är den perfekta blandningen av mänsklig flexibilitet och digital noggrannhet, allt orkestrerat av ERP-systemet.
Nästa punkt: Vad händer när vi helt eliminerar mänsklig restid? Vi ska diskutera "varor-till-person"-revolutionen: Autonoma mobila robotar (AMR) .
Skriven av Andrea Guaccio
10 november 2025