日积月累 - 一些小知识 - 杂乱 - 啥都有
日积月累 - 一些小知识 - 杂乱 - 啥都有
这里准备放一些日积月累的小知识,但是相比于日积月累 - 一些小知识而言,本文更加随意(杂乱)。
Github 在issue中引用代码的代码段
方法:在Github的代码页,点击其中一行的数字,按住shift,再点击零一行的数字,会发现这几行有了背景色。点一下上面那行左边的“三个点的按钮”,点击Reference in new issue
,即可在新的issue页面获取所引用代码的链接。
效果:Github@LetMeFly666/LeetCode/issue#32
轻量级Flask搭建小Web服务
1 |
|
这样,访问ip/file/
时就会开始下载文件,访问ip/
时会看到Hello World!
C++ auto&&
1 |
|
其中q.pop()
将会导致x
和y
的值失效! 详情可见一个De了1个多小时的BUG:7d4f27d
一点关于华为云空间计算方法以及备份内容的探究
华为云空间有5G免费额度,但很快就满了。于是简单探究了下这5G都备份了啥,发现问题有2:
- 备份内容重复问题
- 强制备份应用列表问题
备份内容重复问题:
如果我既备份“图库”,又在“文件管理-我的-设置-自动上传文件至云盘-微信文件/QQ文件”中勾选备份“图片/视频”的话,这些图片就会被备份两次,一共占据两次云空间容量。
强制备份应用列表问题:
备份“当前设备”时,会强制备份“系统数据”。系统数据中包含很多设置,同时还包含“应用列表”。
如果是在华为应用市场下载的应用,那么基本上就是存了个“下载链接”;但若是从第三方下载的应用,则会直接将应用安装包给备份上去。
这个选项无法单独关闭,是个空间消耗无底洞,轻轻松松以GB为单位。
有个投机取巧但不值得做的办法:删除“当前设备”并重新备份,系统会首先备份其他数据(正好是你想要的),最后备份“应用列表”。备份应用列表的过程中空间满了,备份终止,但你想备份的数据也已经备份完了。
安卓应用独占蓝牙信道
使用蓝牙耳机进行腾讯系列软件通话时(包括但不限于腾讯会议、微信视频),软件会独占蓝牙信道,使得:
- 蓝牙无法同时播放音乐
- 蓝牙声音奇大无比震耳欲聋,调到最小也很大,想调到0调不到
电脑上腾讯系软件也这样,但是可用通过在声音图标上右键 -> 声音 -> 播放 -> 双击蓝牙设备 -> 高级 -> 取消勾选“允许应用程序独占控制该设备”
解决。
安卓上暂未找到可行办法。。。emm,我说你个tx,不给用户一个选项么,上来就独占,如果我不想让你独占呢。。。
还有使用腾讯会议时经常弹出的“监测到音量过小,建议调整到50%以上”。好家伙,最低音量(6%)我都觉得震耳欲聋,你这样是想让用户报工伤吗?
司法人工智能
Large Legal Fictions: Profiling LegalHallucinations in Large Language Models
1 |
|
看完觉得主要就是测评了一些大模型在回答司法问题时的“幻觉问题”。
实验部分:
我比较关心:
- 请详细解释零样本和三样本。
- 作者是怎么比较模型回答和已知正确答案的。(1. 在基于参考的查询中,作者如何判断一个回答是否正确,难道要手动判断这几十万次回答吗?2. 在无参考的查询中,作者是如何让ChatGPT帮忙判断回答是否一致的。GPT能判断正确吗?这里会不会引入不信任度的问题?)
大模型问答时,零样本是“模型直接根据任务描述或问题生成答案,不提供任何提示”,三样本是“回答前给几个示例”。
如果做相关实验的话:
- 成本问题,例如GPT似乎需要开通会员才能充钱调用API,还有就是API的价格大概是一个什么样的价位。(1次对话1k token计算,ChatGPT-4o输入2.50美元/1M输出10美元/1M,1k次对话11美元,80w次对话得8.8k美元?)(当然这个是全估算,实际可能会相差好几倍,如果限制只输出“答案”不输出多余内容的话,一次输入1k,一次输出50,1k次对话2.5+0.5=3美元,80W次对话得2.4k美元)
- 数据库来源问题,我能找到这么好的数据库并将其预处理好以便和LLM的回答直接匹配吗?如果LLM不按照格式回答怎么办?我如何处理LLM的回答为可直接对比的格式
- 数据处理问题,几十万次查询总不能手动比结果,文章中好像也没说明白到底是怎么统计的。实际做实验的话,关于作者、法院、存在性是否正确等问题,需要一一想办法进行匹配。主要是本文未开源。
- 需要想好都统计哪些指标,以及这些指标的规则细节(例如若大模型弃权回答不应算作幻觉)
一句话:数据处理上估计比较头疼,但应该还在可完成的范围。数据来源(数据集)上得找一下。要测试哪些指标,什么情况具体如何衡量,都需要仔细想好并设计。成本上如果进行80W次对话这种量级,初步预估可能需要个1W人民币左右的成本。
总结: (第一遍粗略阅读的总结,请我的小读者按批判的眼光看待)
这篇文章测试了4个模型,使用了零样本和三样本两种模型回答方式,统计了幻觉率、存在性、法院层级等很多指标(例如统计每种模型在非贪婪温度下的幻觉率),帮助作者系统地分析了LLMs在不同任务和设置下的幻觉现象,并揭示了其在实际应用中的潜力和挑战。
模型如下:
- OpenAI’s ChatGPT 4 (gpt-4-1106-preview, OpenAI 2023a)
- OpenAI’s ChatGPT 3.5 (gpt-3.5-turbo-0613, 2023b)
- Google’s PaLM 2 (text-bison-001, Anil et al. 2023)
- Meta’s Llama 2 (Llama-2-13b-chat-hf, Touvron et al. 2023)
GoLang
Go的值类型和引用类型
Go中a := b
,若b
是值类型则会发生值拷贝,修改a
不会修改b
;但若b
是引用类型,则赋值操作会传递引用,修改a
也会导致b
同步变化。
- 常见值类型:基本类型(int、string、…)、数组、结构体
- 常见引用类型:切片、映射、通道、函数、指针
Kitex使用日记
From: Github@LetMeFly666/LeetCode/tryGoPy/Go/douyinec/README.md
1 |
|
开了个私有仓库来记录kitex学习过程中的修改
Github@LetMeFly666/kitex-examples
起了个别名:
1 |
|
后续想要push到远端的时候直接git pushLet
就好。
TODOED: 给CloudWeGo提PR,不sleep 1 秒。
可行吗?试试吧。像个办法看进程启动了还是异常退出了。
不行就不PR了。
TODOED: https://www.cloudwego.io/zh/docs/kitex/getting-started/tutorial/#%E6%8B%89%E5%8F%96%E4%BE%9D%E8%B5%96 的上面的代码段,build.sh后面有一个tab,导致渲染出来的注释不对齐
自定义RPC函数
修改
.thrift
文件使用
kitex
生成新代码文件1
kitex -module "github.com/cloudwego/kitex-examples" -service a.b.c hello.thrift
更新
go
文件- 更新
./handler.go
,实现自定义的RPC函数 - 更新
./client/main.go
,调用这个远程函数
- 更新
sth. about 漯河日报(特指网站) - 发现By 我和shy
由一本书引发了漯河日报的一篇文章,然后开始了一点点对于日报官网的探究。
2018年12月21日
及其之前,页脚备案信息“都”是:
1 |
|
2018年12月24日
及其之后(截至2018年12月31日13:55:55
),页脚备案信息变成了:
1 |
|
猜测可能是18年年底之前漯河日报没有“互联网新闻信息服务许可”,所以先用了中国水运报刊社的资格。
小槽点
- 只支持
HTTP
而不支持HTTPS
不是很安全。 - 下方页脚未及时更新,估计是之前全部生成的静态页面而不是动态获取的。这样的话文件在服务器上有很大的“相同内容的冗余”,但还好。
- 日报地址格式为
http://rb.lhrb.com.cn/html/YYYY-mm/dd/node_2.htm
,emm,不能简化一点么。并且将node_2
修改为node_1
后还能访问只是部分乱码了。
Github在commit中引用pr后删除commit
提一个pr,例如(#1),在一个commit中包含#1
这一信息并push到github,那么#1
这个pr上就会出现对这次commit的引用。
先commit并push到github,再创建#1这个pr,则pr中不会出现对包含#1的commit的引用。
提pr后引用pr的commit被强制覆盖删除后,这个commit仍然会出现在pr的“时间线”上。
End
原创不易,转载经作者同意后请附上原文链接哦~
https://blog.letmefly.xyz/2023/10/19/Other-Accumulation-Messy