上手米哈游AI,然后把它逆了!

这是What 这是橘猫,会哈气(见封面 你可以前往 AnuNeko 逗猫 逆! okok,注意到登陆后的请求头中有 x-token 字段 手搓个请求发发,data 携带内容 curl --location 'https://anuneko.com/api/v1/msg/会话id/stream' \ --header 'x-token: 账号Token' \ --header 'Content-Type: text/plain' \ --header 'Cookie: 自动拿取' \ --data '{"contents":["test"]}' 通了 然后还有一种情况,在遇到Pick的时候,我们要发送要选择的回复编号 发个如图请求帮橘猫选择 curl --location 'https://anuneko.com/api/v1/msg/select-choice' \ --header 'x-token: 你的Token' \ --header 'Content-Type: text/plain' \ --header 'Cookie: 自动拿取' \ --data '{"msg_id":"会话id","choice_idx":0或1}' 还有还有,这有个橘猫和黑猫,如何切换一个会话的猫? curl --location 'https://anuneko.com/api/v1/user/select_model' \ --header 'x-token: 你的Token' \ --header 'Content-Type: text/plain' \ --header 'Cookie: 自动拿取' \ --data '{"chat_id":"会话id","model":"Exotic Shorthair或Orange Cat"}' 随便写了个适用于NoneBot2的插件,玩吧 AnuNeko_NoneBot2_Plugins/anuneko.py at main · afoim/AnuNeko_NoneBot2_Plugins

December 2, 2025 · 1 min · 77 words

手把手教你AI翻唱!

视频教程 https://www.bilibili.com/video/BV19F41zPEnM/ 流程 RVC:训练角色音色模型 Replay:利用音色模型+原曲进行AI翻唱 UVR&MSST:进行人声伴奏分离 准备音源 至少10分钟,推荐1小时。音频内仅允许有一种音色,可以有停顿,如果想要更高质量可以自己裁剪停顿处 利用RVC训练模型 进入 RVC-Project/Retrieval-based-Voice-Conversion-WebUI: Easily train a good VC model with voice data 10 mins! 根据你的系统和显卡来进行下载,或者使用该链接下载(国内高速) 语音克隆&变声器 整合包下载 注意不要下错了 直接运行 go-web.bat 进入 WebUI 并切换到训练一栏 首先写模型名称 然后将你的音源放到一个空文件夹 然后填进去 总训练轮数推荐50 ~ 200 然后点击一键训练(需要很久,建议晚上睡觉前训练) 训练结束后可以在 assets/weights 找到模型文件, .pth 结尾的 利用Replay做AI翻唱 下载 Replay 首先 Select Audio 选择你的原歌曲 Model 选择刚刚训练出的模型 然后点击 Convert Audio 在输出的文件的 View in Folder 可以找到 干净的AI人声 伴奏和人声分离 UVR 如果你是50系显卡请前往GPU Acceleration Hangs on RTX 5070Ti (Driver 576.80, CUDA 12.9) · Issue #1889 · Anjok07/ultimatevocalremovergui通过UVR_Patch_4_24_25_20_11_BETA_full_cuda_12.8下载适用于50系显卡的UVR ...

October 13, 2025 · 1 min · 151 words

手把手教你克隆音色!

正式开始 视频教程: https://www.bilibili.com/video/BV1qv41zgEjE/ 请全程魔法 安装Git Lfs: git lfs install 克隆仓库: index-tts/index-tts: An Industrial-Level Controllable and Efficient Zero-Shot Text-To-Speech System 拉取Git Lfs文件: git lfs pull 安装UV(Python包管理器,类似pip): pip install -U uv 安装依赖: uv sync --extra webui 安装hf-cli: uv tool install "huggingface-hub[cli,hf_xet]" 从hf下载模型: hf download IndexTeam/IndexTTS-2 --local-dir=checkpoints 运行web UI: uv run webui.py 浏览器打开 7860 端口 简单使用 WebUI页面长这样 首先将音色参考音频输入(几秒即可) 然后输入要朗读的文本 最终点击生成 调教 推荐使用 使用情感向量控制

October 13, 2025 · 1 min · 60 words

Google最新的AI生图模型 Nano Banana!立绘转真人!一键P图!

快速上手 进入 Google AI Studio 粘贴一张图,说出你想要的更改 立绘转真人COS Prompt:Generate a highly detailed photo of a girl cosplaying this illustration, at Comiket. Exactly replicate the same pose, body posture, hand gestures, facial expression, and camera framing as in the original llustration. Keep the same angle, perspective, and composition, without any deviation 注意: 立绘最好为纯色背景,人物主体完整 立绘中角色不要做出现实中无法做出的动作,这可能会触发AI的Copy,会将图片完整的复制过来而不是创建一个Coser 七夕生草图 Prompt: A photorealistic scene inside a McDonald’s restaurant. On my table, there is a picture frame showing the anime-style image I provided. ...

September 1, 2025 · 2 min · 230 words

我用Claude10分钟写了个六子棋...?

前情提要 本来大晚上被干醒了 准备吃点东西睡回笼觉 顺便在QQ群吹水 然后被委托做一个神经小项目 于是就… 开整! 首先使用最熟悉的Python Flask框架! 然后使用最简单的内存数据库! 然后开始调教AI! 这里本想用JSON存的但是聪明小AI最终交付的仍然是内存存储 然后就写出来了!(并非,总共问了7次 上线! 现已可在 https://sixqi.afo.im/ 游玩! 开源: GitHub - afoim/sixqi

July 13, 2025 · 1 min · 21 words

AI写不出优质的代码?其实是你引导错了!

视频链接: https://www.bilibili.com/video/BV1jw38z9EEn/ 正确的引导方法 先搞清楚你自己具体的需求。比如代码用什么语言编写?用什么技术栈?要具体实现什么功能?应用的场景是什么?是前端、后端还是全栈等等 逻辑清晰,简洁干练地表述你的需求。 比如: 编写一个Python脚本,在代码中硬编码S3_Endpoint、S3_Area、S3_key、S3_Secret、S3_Url(暂时全部留空)。运行后监听Ctrl+Alt+A,一旦被按下,立即检查剪贴板内是否有图片(支持文件格式和纯图格式),将其转换为Webp格式并上传到S3 API的S3_Url路径下,最后模拟键入![](图片链接) 如果不确定AI是否理解了你的需求,可以CallBack一下,避免AI假装理解了你的需求然后一通乱写,比如上面的表述可以改为: 编写一个Python脚本,在代码中硬编码S3_Endpoint、S3_Area、S3_key、S3_Secret、S3_Url(暂时全部留空)。运行后监听Ctrl+Alt+A,一旦被按下,立即检查剪贴板内是否有图片(支持文件格式和纯图格式),将其转换为Webp格式并上传到S3 API的S3_Url路径下,最后模拟键入![](图片链接)。你明白了吗,请告诉我你将要如何完成这个任务,在我批准前请不要编写代码 有时候表达模糊实际上是好事。 因为你一旦开始描述创建一个什么什么变量,赋值为多少多少的时候,实际上你不是在用AI写代码,而是让AI将你的自然语言代码转换为编程语言代码,这就不是一个创造式的需求,而是一个翻译类的需求,最终代码生成质量的好坏完全取决于你的技术知识储备和逻辑思维是否强大。 所以,在面对大部分的需求,我们可以先大致描述一个框架,确认AI的方向正确后慢慢编写项目 AI也会犯错,并且极其容易瞎猜。不要尽信AI给出的内容,在涉及到你不懂的知识时,我们可以翻阅维基百科等权威知识网来验证 不要让AI一直自我检查。现代的AI IDE中,大部分已经实现了Agent模式,也就是: 用户提出需求 -> AI分析并实现需求 -> AI自动Debug -> 最终交付用户项目。 但是在我半年的AI IDE使用经验中,如果代码出现Bug,请不要说类似: 这个代码跑不了,帮我看看 这样的话,我仍然建议你将完整的报错信息复制粘贴给AI并且要求他分析并解决,例如: [报错信息]它报错了,请根据报错信息深度分析一下问题导致的原因,并给我一个解决方案,而不是让AI自身Debug。 因为有时候程序的报错可能只是一个简单的环境变量没配置,或者是你没有使用一个主流的方案,单纯让AI自我检讨只会让AI选择它最认为出错的地方。 换位思考一下,你有个甲方一直告诉你这个方案不行但是就不告诉你哪里不行你头不头疼。但是AI毕竟不是人类,它只会在它认为正确的道路上越走越远,运气好迭代几次Bug解决了,运气不好到达了IDE设置的迭代次数限制然后给你又新写了一坨新史山,然后你花钱买的请求数也就这样浪费了 最后,请善用AI,你也可以询问AI: 你的最佳调用方式是什么。当然,她也有可能欺骗你。 AI推荐 ChatGPT:快速,不限额。适合解决你的疑问 Claude:相比于GPT更强大,更擅长编写代码,尤其是前端,目前大部分AI IDE都接入了Claude 3.5 Sonnet及以上的模型,非常适合编写可拆解,易维护的小脚本 VS Code(Github Copilot):AI IDE。由微软开发,免费用户可以使用Claude 3.5 Sonnet模型,但是份额较少。Pro计划10USD/m,仅支持Paypal和海外卡支付 Cursor:AI IDE。由Anysphere开发,免费用户仅能使用Auto模型(一般不会分配到Claude模型)。Pro计划10USD/m,仅支持Paypal和海外卡支付 Trae(国际版):AI IDE。由字节跳动开发,需要国外IP。新用户Pro计划开通首月仅需3USD/m(之后为10USD/m),支持支付宝和海外卡支付。本人目前在用 写任何项目都完全不推荐使用网页版的任何大模型编写!请使用AI IDE!

June 16, 2025 · 1 min · 51 words