Till sidans topp

Sidansvarig: Webbredaktion
Sidan uppdaterades: 2012-09-11 15:12

Tipsa en vän
Utskriftsversion

Fast visual grounding in … - Göteborgs universitet Till startsida
Webbkarta
Till innehåll Läs mer om hur kakor används på gu.se

Fast visual grounding in interaction: bringing few-shot learning with neural networks to an interactive robot

Paper i proceeding
Författare José Miguel Cano Santín
Simon Dobnik
Mehdi Ghanimifard
Publicerad i Proceedings of Conference on Probability and Meaning (PaM-2020), Gothenburg, Sweden
Förlag Association for Computational Linguistics (ACL), Special Interest Group on Computational Semantics (SIGSEM)
Förlagsort Gothenburg, Sweden
Publiceringsår 2020
Publicerad vid Institutionen för filosofi, lingvistik och vetenskapsteori
Språk en
Länkar https://sites.google.com/view/pam20...
https://gup.ub.gu.se/file/208191
Ämnesord situated interactive agents, robots, few-shot learning, object recognition, dialogue, grounding
Ämneskategorier Datorlingvistik

Sammanfattning

The major shortcomings of using neural networks with situated agents are that in incremental interaction very few learning examples are available and that their visual sensory representations are quite different from image caption datasets. In this work we adapt and evaluate a few-shot learning approach, Matching Networks (Vinyals et al., 2016), to conversational strategies of a robot interacting with a human tutor in order to efficiently learn to categorise objects that are presented to it and also investigate to what degree transfer learning from pre-trained models on images from different contexts can improve its performance. We discuss the implications of such learning on the nature of semantic representations the system has learned.

Sidansvarig: Webbredaktion|Sidan uppdaterades: 2012-09-11
Dela:

På Göteborgs universitet använder vi kakor (cookies) för att webbplatsen ska fungera på ett bra sätt för dig. Genom att surfa vidare godkänner du att vi använder kakor.  Vad är kakor?