Дополненная внимательная GNN для извлечения связей

Семинар: Информационные технологии в задачах филологии и компьютерной лингвистики
Начало заседания: 17:30

Дата выступления: 12 Апрель 2022

Организация: НГУ

Авторы: Ван Цюаньюань

Одна из проблем работы графовых нейронных сетей состоит в том, что использование матрицы внимания исключительно для замены матрицы смежности дерева зависимостей может постепенно отклониться от исходной синтаксической структуры. В представленной работе в механизм внимания были внесены некоторые изменения с помощью синтаксических деревьев зависимостей. Кроме того, графовая нейронная сеть GNN объединена с представлением модели BERT, чтобы полностью использовать преимущества обеих методик.