Apples forskare har utvecklat ett nytt AI-system, ReALM (Reference Resolution As Language Modeling), som kan förstå tvetydiga referenser, konversationella sammanhang och bakgrundskontext i förhållande till objekt som syns på en skärm, rapporterar VentureBeat.
Läs mer här