评论

【周周星分享(5.30第5名)】

【周周星分享(5.30第5名)】

我的分享就主要包括两点吧,主要就是base+pretrain

(1)baseline和之前郭大结构类似,然后文本部分直接是title,asr,ocr拼接输入到bert,这里也是用官方提供的mac-bert;线上大概0.653

在trick方面目前主要尝试了fgm对抗和加权loss,不过只有fgm有2-4k的提升;然后可能由于数据划分的原因,直接全量+fgm线上大概0.668

(2)pretrain,官方提供的百万无标注数据应该作用挺大的,我在预训练这部分主要用的mlm(mask language modeling)+itc(image text contrastive)这两个loss,然后也是全量训练的话线上就0.685,不过这几个loss并没有做过消融,不一定都有用,然后之前也有同学分享的mfm,也是可以去尝试的

点赞 0
收藏
评论

3 个评论

  • 安然
    安然
    2022-07-06

    请问,线上0.653的模型,在官方baseline github上的val验证集上的mean f1精度是怎样的呢?我们错过了报名时间,想线下对比下现在的实验大概效果。

    2022-07-06
    赞同
    回复
  • fuxuelin
    fuxuelin
    2022-06-02

    image text contrastive 请问这个任务具体是做什么的

    2022-06-02
    赞同
    回复
  • game!
    game!
    2022-06-01

    楼主是自己做预训练?资源够吗

    2022-06-01
    赞同
    回复
登录 后发表内容