Startupen Memories.ai vil bygge det selskapet beskriver som et «visuelt minnelag» for wearables og robotikk. På Nvidia GTC annonserte selskapet et samarbeid med Nvidia for å bruke blant annet Cosmos-Reason 2 og Metropolis i videreutviklingen av teknologien.
Poenget er enkelt, men viktig: Fysisk AI trenger ikke bare språkforståelse, men evnen til å lagre, søke og bruke visuelle erfaringer over tid. I praksis betyr det at systemer som AR-briller, industrielle roboter eller mobile assistenter må kunne huske hva de har sett, i hvilken kontekst, og handle bedre neste gang.
Memories.ai hevder at mye av dagens «memory»-utvikling har vært tekstorientert, mens deres fokus er multimodal indeksering av video. Selskapet har også bygget egne datainnsamlingsenheter (LUCI) for å samle treningsgrunnlag, og posisjonerer seg som infrastrukturleverandør fremfor hardwareprodusent.
Kommersielt er dette interessant fordi det peker på en ny programvarekategori mellom modellleverandør og sluttapplikasjon: tjenester som håndterer varig, gjenfinnbar sansedata for fysisk AI. Hvis markedet for wearables og robotikk skalerer videre, kan slike komponenter bli like sentrale som vektordatabase og observability-verktøy er i dagens AI-stack.
For utviklere betyr det at spørsmål om datastruktur, personvern, lagringskost og retrieval-kvalitet får økt betydning når AI flytter ut av chatvinduet og inn i fysiske miljøer.
Tags: ai, robotics, wearables, visual-memory, developer-infrastructure
Sources
TechCrunch: https://techcrunch.com/2026/03/16/memories-ai-is-building-the-visual-memory-layer-for-wearables-and-robotics/
Memories.ai: https://memories.ai/