This repository is devoted to using Large Language Models for solving Code Analysis tasks.
- ๐ Useful Links:
- Warnings Explanation:
- Svace warnings explanations, i.e. more simple / detailed / exemplified warning text.
- Criteria:
- Output Logic (poor / medium / good) - the ability of the current LLM to give a logical output, i.e. if the output is well-correlated with the code;
- Response Time (slow / normal / fast) - the ability of the current LLM to generate an output in a decent amount of time;
- Answer Simplicity (poor / medium / good) - the ability of the current LLM to give a simle output, i.e. if the given explanation can be understood easily.
- Answer Detalisation (poor / medium / good) - the ability of the current LLM to give a detailed output, i.e. if every part of the explanation is justified;
- Output Logic (poor / medium / good) - the ability of the current LLM to give a logical output
- Output Logic (poor / medium / good) - the ability of the current LLM to give a logical output
- Models selected based on test results:
- Models discarded based on test results:
- ORCA_LLaMA_70B_QLoRA,
- FashionGPT-70B-V1.1,
- AutoGen (GPT based),
- Marcoroni-70B-v1,
- Uni-TianYan,
- Falcon-40B,
- Llama2-13B,
- Llama2-70B,
- YandexGPT,
- Starchat,
- Gigachat,
- TheB.Ai
โโโ 1_warning_explanation
โย ย โโโ ...
โโโ 2_test_translation
โย ย โโโ prompt_1
โย ย โย ย โโโ ...
โย ย โโโ prompt_2
โย ย โย ย โโโ ...
โย ย โโโ prompt_3
โย ย โย ย โโโ ...
โย ย โโโ prompt_4
โย ย โย ย โโโ ...
โย ย โโโ prompt_5
โย ย โย ย โโโ ...
โย ย โโโ prompts
โย ย โโโ ...
โโโ 3_test_generation
โย ย โโโ tg_1_prompt.txt
โโโ 4_spec_generation
โย ย โโโ ...
โโโ 5_comment_generation
โย ย โโโ ...
โโโ apps
โย ย โโโ hf_not_working.py
โย ย โโโ llama_chat.py
โย ย โโโ prompts
โย ย โย ย โโโ sg_9_prompt.txt
โย ย โย ย โโโ we-1-prompt.txt
โย ย โย ย โโโ we-3-prompt.txt
โย ย โโโ requirements.txt
โย ย โโโ unused
โย ย โโโ ...
โโโ .gitignore
โโโ ReadMe
โโโ sg_rules
โโโ src
โย ย โโโ inference.py
โโโ test_generation_NotATask
โโโ ...