0%

Overview

这是一篇来自Uber行为预测的文章。

和VectorNet类似,没有用语义地图来对网络进行encode,而是提出了LaneGCN,它使用多个邻接矩阵扩展图的卷积操作,并沿车道进行尺度扩张。为了能够获取复杂车辆和地图的交互,提出了融合网络fusion network进行建模,它包括actor-to-lane, lane-to-lane, lane-to-actor 和 actor-to-actor。

这篇paper提出的方法在Argoverse数据集上取得了SOTA的效果。

阅读全文 »

阮一峰说,喜欢写Blog的人,会经历三个阶段:

第一阶段,刚接触Blog,觉得很新鲜,试着选择一个免费空间来写。

第二阶段,发现免费空间限制太多,就自己购买域名和空间,搭建独立博客。

第三阶段,觉得独立博客的管理太麻烦,最好在保留控制权的前提下,让别人来管,自己只负责写文章。

我现在大概就是处在第三的阶段,一开始我用CSDN写,后来感觉有时候还经常挂掉,页面也不好看,就改成了wordpress;工作后,写blog的时间更少了,而wordpress不支持markdown, 每次我都要用pandoc将markdown转成html,然后在复制进去,维护困难,时间一久就没写blog的兴趣了;而且国外的服务器访问也比较慢(还要花钱),于是近期就转成了hexo,感觉挺好,因此记录下wordpress转成hexo的过程。

阅读全文 »

BERT英文全称是:Bidirectional Encoder Representations from Transformers,即双向Transformer的encoder。

BERT提出的时候刷新了11项NLP任务的记录,可以说开创了一个新的时代。

阅读全文 »

在transformer提出前,比如做机器翻译,常用的是seq2seq的模型。这类模型以RNN作为基本的结构,每一个时刻的输入依赖于上一个时刻的输出,难以并行化计算(当然也可以用CNN来做,如textCNN,CNN可以比较好的做到并行);此外,RNN容易忘记较早看到的信息,尽管有LSTM、GRU使用门的机制来缓解这个问题,但对于特别长的句子,仍旧是有问题的。Transformer的提出正是解决了上述两个问题。

阅读全文 »

本文主要介绍大名鼎鼎的“word2vec”。word2vec顾名思义,就是将词表示为一个向量,表示出的向量可以运用在各种各样的任务上。可以说,在BERT等模型诞生前,这个词向量的表示方法是最为流行的方法之一。

本文主要包括: