Giter Site home page Giter Site logo

Comments (26)

Hanlard avatar Hanlard commented on July 23, 2024

我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的

我也是直接下载的。请问,您的头实体表示学习模型有没有把源码里注释掉的attention恢复呢?我跑完代码,在没有加attention的时候,精度只有40多点,把注释的attention恢复,效果反而差了百分至零点几,而且这种情况在谓词表示学习模型的那块代码也有一样的现象,不知道您的这部分代码是否做了什么改动呢?求告知,非常感谢! @Hanlard

from keqa_wsdm19.

xhuang31 avatar xhuang31 commented on July 23, 2024

Thanks for your interest. There must be some issues in your code.

I would suggest you to rerun everything from the beginning. Do not change the order of the codes unless you are familiar with them.

I didn't make any changes in the past few months. Many others could reproduce the results.

Many thanks.

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

好的,谢谢您的回复。我还想问一下,请问论文中的attention机制,是不是就是您代码在模型的网络结构中被注释的那部分呢?我的意思是,我应该是不需要另外改这部分attention的代码吧?

from keqa_wsdm19.

xhuang31 avatar xhuang31 commented on July 23, 2024

#2 There is an issue with the attention model. I didn't get time to fix it. Please refer to #2 for more details.

Thanks.

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

好的,谢谢您的回复,非常感谢!

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?

from keqa_wsdm19.

lxylxyoo avatar lxylxyoo commented on July 23, 2024

attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?

实体学习部分我的准确率也是在40%左右,请问你现在能达到多少的效果了?是怎么提升的?谢谢

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

from keqa_wsdm19.

slliao445 avatar slliao445 commented on July 23, 2024

attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?

你好,我想问下,代码里被注释的attention部分加上后,代码会报错。想问下attention部分具体需要做些什么改动呢?

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

from keqa_wsdm19.

slliao445 avatar slliao445 commented on July 23, 2024

不好意思,当时我并没有在这个方面做太多的深入,我的相关源码也没有保存,我觉得您可以把在现在改动的情况下,,报的错误发出来看。

------------------ 原始邮件 ------------------ 发件人: "slliao445"<[email protected]>; 发送时间: 2020年8月13日(星期四) 晚上8:14 收件人: "xhuang31/KEQA_WSDM19"<[email protected]>; 抄送: "那个人影竟然不是我"<[email protected]>; "Comment"<[email protected]>; 主题: Re: [xhuang31/KEQA_WSDM19] train_entity.py 头实体表示学习模型训练精度只有63 (#11) attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因? 你好,我想问下,代码里被注释的attention部分加上后,代码会报错。想问下attention部分具体需要做些什么改动呢? — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.

谢谢哈,attention部分加上后,矩阵维度上需要修改一下才能匹配。我已经改好了,谢谢。 另外,我这边训练结果和您的类似,头实体预测在val集上只有62的准确率。 不过最后测试的结果倒是和paper中差不多, 感觉开发集和测试集的结果相差比较大啊?

from keqa_wsdm19.

zhangzy6 avatar zhangzy6 commented on July 23, 2024

你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

from keqa_wsdm19.

zhangzy6 avatar zhangzy6 commented on July 23, 2024

好的谢谢,我就是按程序跑的,没有加入注意力机制,不知道怎么会比paper中低3%左右

from keqa_wsdm19.

yhs1450239423 avatar yhs1450239423 commented on July 23, 2024

from keqa_wsdm19.

zhangzy6 avatar zhangzy6 commented on July 23, 2024

好的,我再看看,谢谢了

from keqa_wsdm19.

ZuoZicheng avatar ZuoZicheng commented on July 23, 2024

attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?

您好,我把注意力机制加上之后发现:对于谓词学习部分的准确率由0.816下降到0.815,实体学习部分由0.642提高到了0.644,测试集上准确率依然是0.75

from keqa_wsdm19.

ZuoZicheng avatar ZuoZicheng commented on July 23, 2024

你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗

这个结果你是在FB2M数据集上跑的还是FB5M?

from keqa_wsdm19.

azhe1234 avatar azhe1234 commented on July 23, 2024

不好意思,一直没看见。40%应该是因为数据用错了。 entity2id,relation2id数据换成main.sh网址中给的KGembed中下载的数据就可以了。不要用前面代码生成的数据。

------------------ 原始邮件 ------------------ 发件人: "lxylxyoo"<[email protected]>; 发送时间: 2020年5月21日(星期四) 晚上7:32 收件人: "xhuang31/KEQA_WSDM19"<[email protected]>; 抄送: "那个人影竟然不是我"<[email protected]>;"Comment"<[email protected]>; 主题: Re: [xhuang31/KEQA_WSDM19] train_entity.py 头实体表示学习模型训练精度只有63 (#11) attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因? 实体学习部分我的准确率也是在40%左右,请问你现在能达到多少的效果了?是怎么提升的?谢谢 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
请问为什么不能用前面代码生成的数据呢,我用前面的跑attention的结果比较差,好奇的是前面代码生成的数据不是数据预处理部分吗?为什么用直接下载的Kgemb里面的entity2id.txt和relation.txt文件呢,不太懂这个地方,可以告诉一下吗?谢谢

from keqa_wsdm19.

azhe1234 avatar azhe1234 commented on July 23, 2024

你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗

这个结果你是在FB2M数据集上跑的还是FB5M?

这个感觉应该是FB2M,代码中默认是FB2M

from keqa_wsdm19.

azhe1234 avatar azhe1234 commented on July 23, 2024

请问还有人研究这篇论文吗?如果有的话可以联系下我吗?有些问题想探讨下谢谢

from keqa_wsdm19.

azhe1234 avatar azhe1234 commented on July 23, 2024

attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?

实体学习部分我的准确率也是在40%左右,请问你现在能达到多少的效果了?是怎么提升的?谢谢
你好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话

from keqa_wsdm19.

azhe1234 avatar azhe1234 commented on July 23, 2024

我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的

您好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话

from keqa_wsdm19.

Baekhyun-56 avatar Baekhyun-56 commented on July 23, 2024

菜鸟诚心发问555,请问一下要怎么替换成自己的数据集呢?

我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的

您好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话

from keqa_wsdm19.

ZuoZicheng avatar ZuoZicheng commented on July 23, 2024

from keqa_wsdm19.

Related Issues (20)

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.