日积月累 - 一些小知识 - 杂乱 - 啥都有
日积月累 - 一些小知识 - 杂乱 - 啥都有
这里准备放一些日积月累的小知识,但是相比于日积月累 - 一些小知识而言,本文更加随意(杂乱)。
Github 在issue中引用代码的代码段
方法:在Github的代码页,点击其中一行的数字,按住shift,再点击零一行的数字,会发现这几行有了背景色。点一下上面那行左边的“三个点的按钮”,点击Reference in new issue
,即可在新的issue页面获取所引用代码的链接。
效果:Github@LetMeFly666/LeetCode/issue#32
轻量级Flask搭建小Web服务
1 |
|
这样,访问ip/file/
时就会开始下载文件,访问ip/
时会看到Hello World!
C++ auto&&
1 |
|
其中q.pop()
将会导致x
和y
的值失效! 详情可见一个De了1个多小时的BUG:7d4f27d
一点关于华为云空间计算方法以及备份内容的探究
华为云空间有5G免费额度,但很快就满了。于是简单探究了下这5G都备份了啥,发现问题有2:
- 备份内容重复问题
- 强制备份应用列表问题
备份内容重复问题:
如果我既备份“图库”,又在“文件管理-我的-设置-自动上传文件至云盘-微信文件/QQ文件”中勾选备份“图片/视频”的话,这些图片就会被备份两次,一共占据两次云空间容量。
强制备份应用列表问题:
备份“当前设备”时,会强制备份“系统数据”。系统数据中包含很多设置,同时还包含“应用列表”。
如果是在华为应用市场下载的应用,那么基本上就是存了个“下载链接”;但若是从第三方下载的应用,则会直接将应用安装包给备份上去。
这个选项无法单独关闭,是个空间消耗无底洞,轻轻松松以GB为单位。
有个投机取巧但不值得做的办法:删除“当前设备”并重新备份,系统会首先备份其他数据(正好是你想要的),最后备份“应用列表”。备份应用列表的过程中空间满了,备份终止,但你想备份的数据也已经备份完了。
安卓应用独占蓝牙信道
使用蓝牙耳机进行腾讯系列软件通话时(包括但不限于腾讯会议、微信视频),软件会独占蓝牙信道,使得:
- 蓝牙无法同时播放音乐
- 蓝牙声音奇大无比震耳欲聋,调到最小也很大,想调到0调不到
电脑上腾讯系软件也这样,但是可用通过在声音图标上右键 -> 声音 -> 播放 -> 双击蓝牙设备 -> 高级 -> 取消勾选“允许应用程序独占控制该设备”
解决。
安卓上暂未找到可行办法。。。emm,我说你个tx,不给用户一个选项么,上来就独占,如果我不想让你独占呢。。。
还有使用腾讯会议时经常弹出的“监测到音量过小,建议调整到50%以上”。好家伙,最低音量(6%)我都觉得震耳欲聋,你这样是想让用户报工伤吗?
司法人工智能
Large Legal Fictions: Profiling LegalHallucinations in Large Language Models
1 |
|
看完觉得主要就是测评了一些大模型在回答司法问题时的“幻觉问题”。
实验部分:
我比较关心:
- 请详细解释零样本和三样本。
- 作者是怎么比较模型回答和已知正确答案的。(1. 在基于参考的查询中,作者如何判断一个回答是否正确,难道要手动判断这几十万次回答吗?2. 在无参考的查询中,作者是如何让ChatGPT帮忙判断回答是否一致的。GPT能判断正确吗?这里会不会引入不信任度的问题?)
大模型问答时,零样本是“模型直接根据任务描述或问题生成答案,不提供任何提示”,三样本是“回答前给几个示例”。
如果做相关实验的话:
- 成本问题,例如GPT似乎需要开通会员才能充钱调用API,还有就是API的价格大概是一个什么样的价位。(1次对话1k token计算,ChatGPT-4o输入2.50美元/1M输出10美元/1M,1k次对话11美元,80w次对话得8.8k美元?)(当然这个是全估算,实际可能会相差好几倍,如果限制只输出“答案”不输出多余内容的话,一次输入1k,一次输出50,1k次对话2.5+0.5=3美元,80W次对话得2.4k美元)
- 数据库来源问题,我能找到这么好的数据库并将其预处理好以便和LLM的回答直接匹配吗?如果LLM不按照格式回答怎么办?我如何处理LLM的回答为可直接对比的格式
- 数据处理问题,几十万次查询总不能手动比结果,文章中好像也没说明白到底是怎么统计的。实际做实验的话,关于作者、法院、存在性是否正确等问题,需要一一想办法进行匹配。主要是本文未开源。
- 需要想好都统计哪些指标,以及这些指标的规则细节(例如若大模型弃权回答不应算作幻觉)
一句话:数据处理上估计比较头疼,但应该还在可完成的范围。数据来源(数据集)上得找一下。要测试哪些指标,什么情况具体如何衡量,都需要仔细想好并设计。成本上如果进行80W次对话这种量级,初步预估可能需要个1W人民币左右的成本。
总结: (第一遍粗略阅读的总结,请我的小读者按批判的眼光看待)
这篇文章测试了4个模型,使用了零样本和三样本两种模型回答方式,统计了幻觉率、存在性、法院层级等很多指标(例如统计每种模型在非贪婪温度下的幻觉率),帮助作者系统地分析了LLMs在不同任务和设置下的幻觉现象,并揭示了其在实际应用中的潜力和挑战。
模型如下:
- OpenAI’s ChatGPT 4 (gpt-4-1106-preview, OpenAI 2023a)
- OpenAI’s ChatGPT 3.5 (gpt-3.5-turbo-0613, 2023b)
- Google’s PaLM 2 (text-bison-001, Anil et al. 2023)
- Meta’s Llama 2 (Llama-2-13b-chat-hf, Touvron et al. 2023)
End
原创不易,转载经作者同意后请附上原文链接哦~
https://blog.letmefly.xyz/2023/10/19/Other-Accumulation-Messy