Till sidans topp

Sidansvarig: Webbredaktion
Sidan uppdaterades: 2012-09-11 15:12

Tipsa en vän
Utskriftsversion

How does Punctuation Affe… - Göteborgs universitet Till startsida
Webbkarta
Till innehåll Läs mer om hur kakor används på gu.se

How does Punctuation Affect Neural Models in Natural Language Inference

Artikel i vetenskaplig tidskrift
Författare Adam Ek
Jean-Philippe Bernardy
Stergios Chatzikyriakidis
Publicerad i Computational linguistics - Association for Computational Linguistics
ISSN 0891-2017
Publiceringsår 2020
Publicerad vid Institutionen för filosofi, lingvistik och vetenskapsteori
Språk en
Ämnesord Natural Language Inference, Punctuation, Transformer, Recurrent Neural Network
Ämneskategorier Språkteknologi (språkvetenskaplig databehandling), Datorlingvistik

Sammanfattning

Natural Language Inference models have reached almost human-level performance but their generalisation capabilities have not been yet fully characterized. In particular, sensitivity to small changes in the data is a current area of investigation. In this paper, we focus on the effect of punctuation on such models. Our findings can be broadly summarized as follows: (1) irrelevant changes in punctuation are correctly ignored by the recent transformer models (DistilBERT) while older RNN-based models were sensitive to them. (2) All models, both transformers and RNN-based models, are incapable of taking into account small relevant changes in the punctuation.

Sidansvarig: Webbredaktion|Sidan uppdaterades: 2012-09-11
Dela:

På Göteborgs universitet använder vi kakor (cookies) för att webbplatsen ska fungera på ett bra sätt för dig. Genom att surfa vidare godkänner du att vi använder kakor.  Vad är kakor?