Comments (26)
我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的
from keqa_wsdm19.
我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的
我也是直接下载的。请问,您的头实体表示学习模型有没有把源码里注释掉的attention恢复呢?我跑完代码,在没有加attention的时候,精度只有40多点,把注释的attention恢复,效果反而差了百分至零点几,而且这种情况在谓词表示学习模型的那块代码也有一样的现象,不知道您的这部分代码是否做了什么改动呢?求告知,非常感谢! @Hanlard
from keqa_wsdm19.
Thanks for your interest. There must be some issues in your code.
I would suggest you to rerun everything from the beginning. Do not change the order of the codes unless you are familiar with them.
I didn't make any changes in the past few months. Many others could reproduce the results.
Many thanks.
from keqa_wsdm19.
好的,谢谢您的回复。我还想问一下,请问论文中的attention机制,是不是就是您代码在模型的网络结构中被注释的那部分呢?我的意思是,我应该是不需要另外改这部分attention的代码吧?
from keqa_wsdm19.
#2 There is an issue with the attention model. I didn't get time to fix it. Please refer to #2 for more details.
Thanks.
from keqa_wsdm19.
好的,谢谢您的回复,非常感谢!
from keqa_wsdm19.
attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?
from keqa_wsdm19.
attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?
实体学习部分我的准确率也是在40%左右,请问你现在能达到多少的效果了?是怎么提升的?谢谢
from keqa_wsdm19.
from keqa_wsdm19.
attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?
你好,我想问下,代码里被注释的attention部分加上后,代码会报错。想问下attention部分具体需要做些什么改动呢?
from keqa_wsdm19.
from keqa_wsdm19.
不好意思,当时我并没有在这个方面做太多的深入,我的相关源码也没有保存,我觉得您可以把在现在改动的情况下,,报的错误发出来看。
…
------------------ 原始邮件 ------------------ 发件人: "slliao445"<[email protected]>; 发送时间: 2020年8月13日(星期四) 晚上8:14 收件人: "xhuang31/KEQA_WSDM19"<[email protected]>; 抄送: "那个人影竟然不是我"<[email protected]>; "Comment"<[email protected]>; 主题: Re: [xhuang31/KEQA_WSDM19] train_entity.py 头实体表示学习模型训练精度只有63 (#11) attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因? 你好,我想问下,代码里被注释的attention部分加上后,代码会报错。想问下attention部分具体需要做些什么改动呢? — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
谢谢哈,attention部分加上后,矩阵维度上需要修改一下才能匹配。我已经改好了,谢谢。 另外,我这边训练结果和您的类似,头实体预测在val集上只有62的准确率。 不过最后测试的结果倒是和paper中差不多, 感觉开发集和测试集的结果相差比较大啊?
from keqa_wsdm19.
你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗
from keqa_wsdm19.
from keqa_wsdm19.
好的谢谢,我就是按程序跑的,没有加入注意力机制,不知道怎么会比paper中低3%左右
from keqa_wsdm19.
from keqa_wsdm19.
好的,我再看看,谢谢了
from keqa_wsdm19.
attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?
您好,我把注意力机制加上之后发现:对于谓词学习部分的准确率由0.816下降到0.815,实体学习部分由0.642提高到了0.644,测试集上准确率依然是0.75
from keqa_wsdm19.
你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗
这个结果你是在FB2M数据集上跑的还是FB5M?
from keqa_wsdm19.
不好意思,一直没看见。40%应该是因为数据用错了。 entity2id,relation2id数据换成main.sh网址中给的KGembed中下载的数据就可以了。不要用前面代码生成的数据。
…
------------------ 原始邮件 ------------------ 发件人: "lxylxyoo"<[email protected]>; 发送时间: 2020年5月21日(星期四) 晚上7:32 收件人: "xhuang31/KEQA_WSDM19"<[email protected]>; 抄送: "那个人影竟然不是我"<[email protected]>;"Comment"<[email protected]>; 主题: Re: [xhuang31/KEQA_WSDM19] train_entity.py 头实体表示学习模型训练精度只有63 (#11) attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因? 实体学习部分我的准确率也是在40%左右,请问你现在能达到多少的效果了?是怎么提升的?谢谢 — You are receiving this because you commented. Reply to this email directly, view it on GitHub, or unsubscribe.
请问为什么不能用前面代码生成的数据呢,我用前面的跑attention的结果比较差,好奇的是前面代码生成的数据不是数据预处理部分吗?为什么用直接下载的Kgemb里面的entity2id.txt和relation.txt文件呢,不太懂这个地方,可以告诉一下吗?谢谢
from keqa_wsdm19.
你好,train_entity.py 头实体表示学习模型训练精度63%,train_pre.py 关系表示学习模型训练精度81%,最后的结果为72%左右,和paper差3%,您遇到过这个情况吗
这个结果你是在FB2M数据集上跑的还是FB5M?
这个感觉应该是FB2M,代码中默认是FB2M
from keqa_wsdm19.
请问还有人研究这篇论文吗?如果有的话可以联系下我吗?有些问题想探讨下谢谢
from keqa_wsdm19.
attention那行问题提到的代码确认改过了,但是在头实体学习和谓词学习模型部分,加上attention,精度还是略微下降了,没有attention的谓词学习模型部分,精度达到了论文中所说的81%,但是加上attention的只有78.9%,实体学习部分也是降了,重复了几次都是这样。所以,想请问您一下,出现这样的问题有可能是什么原因?
实体学习部分我的准确率也是在40%左右,请问你现在能达到多少的效果了?是怎么提升的?谢谢
你好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话
from keqa_wsdm19.
我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的
您好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话
from keqa_wsdm19.
菜鸟诚心发问555,请问一下要怎么替换成自己的数据集呢?
我没有自己训练transE,是直接下载作者链接的文件,把KGembed.zip里的文件考进去的
您好,请问你现在还研究这个论文吗?我有些问题可以和你交流下吗?如果方便的话
from keqa_wsdm19.
from keqa_wsdm19.
Related Issues (20)
- Issue with train_entity.py HOT 1
- Prediction on a Custom Dataset HOT 4
- the data cannot be downloaded HOT 1
- TypeError: can’t convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first HOT 6
- Problem in beginning the training
- FileNotFoundError: [Errno 2] No such file or directory: 'preprocess/dete_best_model.pt' HOT 3
- ValueError: cannot reshape array of size 161914250 into shape (647639,250) HOT 4
- The KG used in train_entity.py appears to be smaller HOT 1
- An Issue about the Statistics of FB2M and FB5M HOT 1
- Reproducability
- Test on FB2M HOT 1
- 请问这些文件我并没有在下载中找到这些preprocess/train.txt,preprocess/valid.txt文件,请问可以在哪里获得这些文件呢?谢谢
- 代码里面有这个实体的人工校正,是因为freebase的数据集的问题吗?或者是其他原因?求救~
- 老师您好,我最近在更换其他的数据集来实现这个代码。您可以将python3.6 transE_emb.py --learning_rate 0.003 --batch_size 3000 --eval_freq 50这个文件提供给我吗?
- Error : ImportError: /usr/lib/x86_64-linux-gnu/libstdc++.so.6: version `GLIBCXX_3.4.26' not found (required by /Data/komal/anaconda3/envs/pyg/lib/python3.8/site-packages/scipy/linalg/_matfuncs_sqrtm_triu.cpython-38-x86_64-linux-gnu.so)
- IndexError: index out of range in self
- an error
- I have some confusions,Can you help me? HOT 2
- File Not Found Error.
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from keqa_wsdm19.