nash_su - e/acc Profile Banner
nash_su - e/acc Profile
nash_su - e/acc

@nash_su

13,158
Followers
1,164
Following
454
Media
2,056
Statuses

e/acc - AI创业者,前OpenCSG联合创始人,前 IterCast/LinuxCast 创始人。马拉松爱好者(PB官方255,个人最好成绩249)

xi'an
Joined April 2010
Don't wanna be here? Send us removal request.
Pinned Tweet
@nash_su
nash_su - e/acc
6 months
免费开源 perplexity AI 平替:FreeAskInternet 🈚️ 完全免费 ( 无需任何 API key) 💻 完全本地运行 ( 无需 GPU ) 🔐 完全隐私 (本地运行) 🚀 Docker一键部署 这个项目是我的一个小实验,今天下午花了3小时完成,借助 FreeGPT35 以及 searxng,感谢 🌟欢迎 Star 项目地址:
76
262
1K
@nash_su
nash_su - e/acc
2 years
GPT-4免费用,无需官方账号 SteamShip 开放了 GPT-4 的模型接口,只需要注册SteamShip 账号,无需付费几行代码直接就能调用 GPT-4 下面是我测试的视频,除了返回时间比较慢,估计用的人太多了,而且本身 GPT-4 官方就很慢,不需要任何费用,也不需要有 OpenAI 账号
77
713
2K
@nash_su
nash_su - e/acc
2 years
可口可乐最新广告,用到了 stable diffusion AI,配合3D技术。这是最近看到第二个如此级别商用的,上一个是麦当劳还是肯德基的用 Nerf 三维重建技术
48
585
2K
@nash_su
nash_su - e/acc
2 years
Apple 官方出品 基于M芯片的 Stable Diffusion 最快9秒,最慢30多秒就可以出一张图,性能快超过我移动版3080了
36
496
2K
@nash_su
nash_su - e/acc
1 year
ChatGPT 强力竞争对手 Claude OpenAI前副总裁离职创立 Claude 的可以接入Slack使用了,API也开放申请,试了下效果很不错。 写小说、写代码、解释概念、简单推理等等都有与ChatGPT不相上下的能力,等待API通过用到产品里,听说API目前不限量不要钱。
Tweet media one
Tweet media two
Tweet media three
66
573
2K
@nash_su
nash_su - e/acc
6 months
卧槽,这就是我心目中的好产品设计,牛逼👍🏻👍🏻👍🏻
49
281
1K
@nash_su
nash_su - e/acc
2 years
GPT-4 自动写代码 刚刚发布的 Cursor 编辑器集成了 GPT-4 接口,我测试了下他生成代码的能力,叹为观止,我尝试了从前端到后段,从纯软到软硬结合,从UE到Unity,各种语言甚至汇编或HSL,都能正确写出几乎能直接运行的代码 开发效率大提升!目前为止还是免费,大家可以试试:
40
347
1K
@nash_su
nash_su - e/acc
11 months
苹果发布会iPhone录制使用的软件: BlackMagic Camera 用了下,确实方便,主要免费。
Tweet media one
32
275
1K
@nash_su
nash_su - e/acc
10 months
大模型工作原理3D可视化,太酷了! LLM工作原理秒懂,作者将transformer架构做成了在线3D模型,并且可视化的展示了大模型生成内容的每一步
18
306
1K
@nash_su
nash_su - e/acc
2 years
图形化界面3分钟搭建ChatGPT应用 我录制了一个视频演示了如何使用langflow快速搭建了一个ChatGPT应用,实现: 1. 集成调用 ChatGPT API 2. 可自定义 Prompt 3. 实时搜索在线信息投喂 GPT 返回问题结果 不需要写代码,全图形化拖拉拽完成,当然也可以导出配置集成进现有代码中
46
346
1K
@nash_su
nash_su - e/acc
1 year
这是一个完全用AI生成的视频 看了好几遍才看出端倪,说实话已经很可用了,而且现在已经出现好几个商业广告用AI生成,拐点已经来了
115
223
1K
@nash_su
nash_su - e/acc
3 years
Telegram 创始人 Durov 前几天37岁生日,给出了10点人生建议, 3点重要:睡眠、自然、独居。 7点不重要:大城市、餐馆、热天气、流行、房产、社交媒体和名人建议。 个人分析总结下来的核心观点就是:保持健康、保持专注减少干扰、提高效率。 虽然有点近乎苦行僧和完美主义,但背后的观点还是值得借鉴。
Tweet media one
Tweet media two
33
284
1K
@nash_su
nash_su - e/acc
2 years
苹果M芯片13秒生成一张图,比肩3090显卡 苹果刚刚发布了基于CoreML优化的 StableDiffusion程序 我在我的M1 16G MBP上试了下,13.7秒生成一张图,模型用的是SD2,基本跟我移动版3090一个速度 而且最重要的是全程用NeuralEngine,CPU和GPU都没有占用 这是另一个生成程序的链接
Tweet media one
40
206
913
@nash_su
nash_su - e/acc
2 years
一觉醒来又被一堆大厂AI产品骑脸输出 1. Adobe发布了 Sensei AI 和 Firefly 2. Google 发布了 Bard 3. Nvidia 发布了针对ChatGPT优化的H100显卡 4. New Bing 可以直接生成图片了 麻了,麻了……
34
277
885
@nash_su
nash_su - e/acc
1 year
打败ChatGPT,Claude震惊到我了 之前一直用ChatGPT生成训练语料 Fine-tuning 我们的模型,刚刚用Claude试了下,他竟然能基于给定内容编故事编案例,感觉是有很强的推理能力,不知道是基于训练内容生成的还是真的有极强CoT能力。 测试如下图:
Tweet media one
Tweet media two
Tweet media three
41
200
883
@nash_su
nash_su - e/acc
1 year
ChatGPT-4 的31倍!ChatGPT-3 的250倍! 新论文使用RMT循环记忆技术拓展了Transformer架构模型的Token输入能力,拓展到了1M token,也就是100万字输入能力。直接分析处理一本书都可以了。 期待整合进主流LLM模型 论文: 测试项目:
Tweet media one
36
244
825
@nash_su
nash_su - e/acc
1 year
大语言模型进化树 挺感慨技术方向的残酷
25
211
694
@nash_su
nash_su - e/acc
2 years
改变世界的 Transformer ,不同模型的差异 挺感慨,Google 率先发布了 Transformer,却选择了Encoder 这条路,而GPT选择了更难的 Decoder,却大力出奇迹的改变世界。
Tweet media one
Tweet media two
Tweet media three
18
159
626
@nash_su
nash_su - e/acc
1 year
这产品绝了,感觉像是行为艺术一样 没有摄像头,通过搜集定位、天气、温度等等信息生成 prompt,再AI生成一直照片……
35
179
608
@nash_su
nash_su - e/acc
2 years
基于GPT-4,Github 发布了 Copilot X… 就在我以为今天大厂骑脸输出已经结束了的时候,GitHub 基于GPT-4下一代代码生成工具 Copilot X 来了
16
181
554
@nash_su
nash_su - e/acc
2 years
昨天跑通了类似 ChatPDF 的全离线方案,不用 ChatGPT(当然效果肯定会差一些),Embedding 使用 CoSENT 方案,内容总结生成回复使用 ChatGLM,效果很不错 这样的好处是成本完全可控,并且支持私有化部署,准备在自己的客户业务上先测试下效果。
38
115
552
@nash_su
nash_su - e/acc
1 year
随意商用,LLaMA最大竞争对手 Dolly 2.0 发布DataBricks发布了了Dolly2.0,120亿个参数。同时发布了15k 的 dataset,由5000人花费2个月时间编写,不同于1.0的用Alpaca使用OpenAI 自动生成的语料。 Meta 的 LLaMA 最大的限制就是不可商用,相信基于Dolly的各种模型会很快出来
12
152
527
@nash_su
nash_su - e/acc
1 year
剪映+ChatGPT! 刚发现ChatGPT插件支持剪映了: 对话生成视频脚本,然后ChatGPT调用网页版剪映生成视频,这个用来做视频内容农场简直不要太方便……
14
144
544
@nash_su
nash_su - e/acc
1 year
每秒40token,不用CPU,苹果M芯片牛逼 LLaMA cpp加入了Metal支持 只使用GPU,每秒可以生成40个字,极速!
15
117
495
@nash_su
nash_su - e/acc
2 years
树莓派也能跑ChatGPT,斯坦福 Alpaca 实现原理: 1. 先通过 ChatGPT API 接口调用  text-davinci-003 模型生成了 52000个 训练语料数据。 2. 基于 LLaMA 7B 模型使用这52K个语料数据 Fine-tune,8块A100显卡不到3小时完成。 最终达到了与 OpenAI  text-davinci-003 几乎一样的效果,总共花费不到$600。
Tweet media one
19
89
444
@nash_su
nash_su - e/acc
11 months
150分钟语音转文字只需要1分18秒! 低端T4显卡,whisper large v3 蒸馏模型配合Flash-attention 2,速度起飞啊
Tweet media one
11
132
450
@nash_su
nash_su - e/acc
3 years
知名的 zlib 支持 telegrambot 了,使用起来非常方便。同时推荐一本书《最寒冷的冬天:美国人眼中的朝鲜战争》,最近长津湖很火,推荐大家从另一个角度理解朝鲜战争。当然这本书大陆是买不到的。否则肯定买一本支持正版。
Tweet media one
Tweet media two
Tweet media three
18
78
424
@nash_su
nash_su - e/acc
1 year
羊驼快不够用了 程序员专用,StackLLaMA发布,基于StackExchage数据训练 各种🐑估计大家都麻木了,但是这个项目最有价值的是对整合RLHF过程进行了详细讲解,是一个很好的教学案例,想要自己练🐑的赶紧转发收藏起来吧 项目地址: 相关技术讲解:
Tweet media one
10
111
438
@nash_su
nash_su - e/acc
2 years
怎么开通 ChatGPT Plus 体验 GPT-4 1. 下载注册 Depay 注册用户 2. 用 USDT 充值付费10美金开匿名卡,或者完成 KYC 免费开卡 3. 虚拟币充值 4. 用随机🇺🇸地址配合卡片信息订阅Plus 5. Enjoy! 最后无耻的发下带aff的Depay注册链接:
Tweet media one
Tweet media two
Tweet media three
Tweet media four
18
132
421
@nash_su
nash_su - e/acc
10 months
显示器刷新率已经比不上生成速度了! StreamDiffusion 每秒生成100张图片,直播看来可以走起了 RTX4090, core i9-13900K, Ubuntu22.04.3 LT sd-turbo, 512x512, batch size 1, txt2img
18
88
441
@nash_su
nash_su - e/acc
2 years
本地运行斯坦福草泥马模型 有人放出了斯坦福基于LLAMA Fine-tune的alpaca模型和程序出来,在4G内存的电脑就能跑起来,试了下效果还是不错的,视频是我在我的 M1 16G MBP上的速度,非常快。 但是程序不是很稳定,容易崩,中文可以理解但大部分回答还是英文。
14
92
417
@nash_su
nash_su - e/acc
1 year
这应该是目前用过对LLaMA中文改造最好的一个 扩了词表,同时在极大量中文数据集上进行了训练。 用增加了Metal支持的llama.cpp在M1上进行推理,速度极快,且只使用GPU。 我的测试视频如下(未加速):
10
90
423
@nash_su
nash_su - e/acc
6 months
🎉🎉🎉三喜临门: 1. 新版发布! 2. 登顶 GitHub Trending 3. Star 破4k🌟 感谢大家的支持! 新版功能: 1. 全新UI界面,为搜索定制 2. 集成ChatGPT3.5、Kimi、Qwen、智谱GLM 3. 多语言回复设置 4. 自定义模型和URL,可以用ollama啦 详细教程后续更新,简单演示⬇️⬇️⬇️
36
75
425
@nash_su
nash_su - e/acc
2 years
接上推:个人电脑也能跑起来的 ChatGPT 模型,斯坦福 Alpaca 羊驼项目的相关说明Blog: 项目GitHub地址: 在线demo地址(非常慢估计用的人太多了):
4
115
413
@nash_su
nash_su - e/acc
11 months
在线试用OpenAI最新的TTS,效果非常棒👍🏻
Tweet media one
16
120
410
@nash_su
nash_su - e/acc
11 months
Twitter节省了60%的服务器开销! 自从马斯克大刀阔斧改革Twitter,竟然实现了这么大的成本优化,最震惊的是: 1. 只保留1/4员工 2. 节省了60%服务器成本 而这些并没有对Twitter造成什么实质影响,甚至很多数据有增长。
56
81
401
@nash_su
nash_su - e/acc
1 year
最高5倍提速,whisper 加入苹果引擎ANE支持! OpenAI 开源 ASR 模型加入了ANE支持,M1芯片可提速3倍,M2芯片可提速5倍 ggerganov 大神的 whisper.cpp 项目越来越强悍了,目前只支持 encoder,但是性能已经很强了
Tweet media one
Tweet media two
24
86
402
@nash_su
nash_su - e/acc
2 years
你跟钢铁侠就差一块3090 微软开源JARVIS,又称大模型和他的朋友们 利用ChatGPT分析需求自动调用其他模型拆分解决任务的程序,微软开源了。 原理很简单,如实现多模态方法: 用户:图中有几个斑马。模型会分析需求调用图像识别算法返回文本结果,再交给大模型输出。
Tweet media one
Tweet media two
Tweet media three
Tweet media four
12
108
365
@nash_su
nash_su - e/acc
9 months
语音识别反过来就变成了TTS 将 whisper 反过来用,重新训练变成了一个 tts,这个真是没想到
13
82
383
@nash_su
nash_su - e/acc
6 months
一天新增近1.3k star⭐! 总计3.3k star了。上了 Trending 太快,涌入一大波全球用户,国际化需求得赶紧安排上了 预告,新UI最晚今晚更新发布🥰
Tweet media one
Tweet media two
Tweet media three
16
49
383
@nash_su
nash_su - e/acc
1 year
70mm IMAX胶片的超高清晰度 有人扫描了奥本海默电影的一张胶片,可以看到胶片保存了极高的细节,扫描照片大小达到了500MB 70mm IMAX最高18K的放映分辨率真不是吹牛逼的
21
67
366
@nash_su
nash_su - e/acc
1 year
开源之光:RedPajama重塑大语言模型的未来 LLaMA最强平替,超12万亿训练数据,全开源 1. 开源12万亿训练数据,参考LLaMA数据集配比。 2. 模型马上开源 *标题由Claude生成
Tweet media one
Tweet media two
10
99
332
@nash_su
nash_su - e/acc
1 year
吴恩达的ChatGPT免费课程确实用心 视频搭配jupyter在线实验,赞👍
Tweet media one
4
86
338
@nash_su
nash_su - e/acc
1 year
万物皆可分隔,元宇宙核心模型之一 Meta发布了 Segment Anything 算法模型,做到了几乎完美的视觉内容分隔识别,甚至是没有遇到过的类型 模型基于1100万张照片训练,拥有11亿个分隔Mask,实际效果牛逼到爆 模型使用256个A100花费快5天训练完成,识别速度在单块A100上为0.15秒
10
82
322
@nash_su
nash_su - e/acc
8 months
光刻机厂家 ASML 完全用AI生成的宣传广告 全片使用 Midjourney 和 Runway 生成素材,1963 个 Midjourney prompts 生成了 7852 张图片,之后使用RunwayAI 生成了25957 帧画面。 用芯片生成,为芯片宣传
10
82
331
@nash_su
nash_su - e/acc
2 years
金融专用大模型:BloombergGPT 500亿参数,训练成本超过1300万,用AWS64台8xA100训练53天完成核心模型训练。 主要实现问答、新闻头条编写、生成BQL等 按青云相同配置价格粗略计算训练成本1300W+ 然而不能用来炒股,希望做AI自动炒股的可以散了
Tweet media one
Tweet media two
Tweet media three
Tweet media four
4
96
305
@nash_su
nash_su - e/acc
1 year
心机如 Elon Musk 先是让OpenAI 听自己话,不听 然后呼吁大家大模型太危险不要搞了 再是买了一万块显卡说给Twitter用 最后自己创立了 公司 真是妙蛙种子吃着妙脆角妙进了米奇妙妙屋 妙到家了
Tweet media one
27
45
298
@nash_su
nash_su - e/acc
2 years
免费GPT-4,打开就用 又有人直接开放了GPT-4接口不需要注册直接可以用,点击下面链接就行 就是用的人太多了要排队...一个问题我等了快10分钟才返回...
Tweet media one
2
104
289
@nash_su
nash_su - e/acc
1 year
可商用!复旦大学开源了160B参数的大模型MOSS MOSS是一个支持中英双语和多种插件的对话语言模型,基座模型在约七千亿中英文以及代码单词上预训练得到。具备多轮对话能力及使用多种插件的能力 很多训练语料都使用ChatGPT API翻译生成
8
85
298
@nash_su
nash_su - e/acc
10 months
刚发布的多专家模型 MistralAI 8x7B 可以在线使用了! MistralAI 8x7B 是一个 MoE 模型,是用8个7B模型组合起来使用,跟ChatGPT4一样。
13
65
284
@nash_su
nash_su - e/acc
6 months
16小时 Github 500 star 达成🌟🌟🌟🥰🥰🥰 一个人,3小时开发完成,开源16个小时,获得推文20W阅读和 Github 500 star 这个项目是我对产品、技术、开源和增长黑客的一个实验,目前实验很成功,感谢大家的支持捧场! 后面会复盘我的思路以及实验总结,分享给大家 地址:
Tweet media one
22
45
287
@nash_su
nash_su - e/acc
2 years
一批 Vector Database 被 ChatGPT 带火了,官方推荐的有以下几个:Pinecone、Weaviate、Redis、Qdrant、Milvus 其实还有 Facebook 的 Faiss。 另外 PostgreSQL 的 pgvector 拓展也可以让 PG 具有向量数据库的能力。 ChatGPT Embedding 后的内容相似度查询是用 Cosine算法
12
68
264
@nash_su
nash_su - e/acc
11 months
大模型从3.2T压缩到160GB! 这个MoE有厉害,压缩率极高且号称精度损失很小,找时间好好读读论文,如果有通用性这个将是革命性的!
@_akhaliq
AK
11 months
QMoE: Practical Sub-1-Bit Compression of Trillion-Parameter Models paper page: Mixture-of-Experts (MoE) architectures offer a general solution to the high inference costs of large language models (LLMs) via sparse routing, bringing faster and more
Tweet media one
13
78
411
4
73
255
@nash_su
nash_su - e/acc
10 months
llama.cpp 危⚠️! 苹果的MLX框架震惊到我了。 虽然刚发布不久,但是基本最近发布的一些大模型都以极快的速度兼容了,并且兼容转换代码极为简单。 Mistral,Mixtral,Phi-2 反观llama.cpp,兼容就慢得多也复杂的多。 本身llama.cpp的优势大部分都是在Apple Silicon上,危险啊...
12
56
257
@nash_su
nash_su - e/acc
2 years
甲方:我要五彩斑斓的黑 AI时代打工人工作流会是怎样
6
67
239
@nash_su
nash_su - e/acc
11 months
AI审判日号,万卡H100公海算力平台! DEL COMPLEX 这个公司推出了一个叫做蓝色先锋1号的海上算力平,在公海上为了逃避监管.能耗自给自足拥有1W块H100显卡.靠太阳能和涡轮机发电. 瞬间想到审判日号,不过不知道安保咋样,🏴‍☠️有了新目标
Tweet media one
Tweet media two
Tweet media three
Tweet media four
13
48
251
@nash_su
nash_su - e/acc
2 years
训练中文 Alpaca LoRa 做完用3K多条问答保险语料,LoRa Fine-tune 了一个 Alpaca 7B 模型,耗时240分钟,最终 Loss 0.87 测试结果: 1. 训练语料相关内容都能有大概合理的回复,但仅限于不胡说 2. 非语料相关内容则会强行回复某个语料内的数据 3. 逻辑推理数学计算则没有这个能力
Tweet media one
Tweet media two
Tweet media three
Tweet media four
13
55
249
@nash_su
nash_su - e/acc
2 years
今天抽空看了下发布好久的大佬的新视频,本想学习下他是如何解决类知识库项目的 ChatGPT 内容提取问题的,以为有高超的办法,没想到跟我的办法一样.....看来 ChatGPT 在很多实际落地应用领域还需要很多技术手段来配合。 ChatGPT 不是万能的,产品化能力依然是核心竞争力。
9
68
236
@nash_su
nash_su - e/acc
2 years
麦当劳用 AI Nerf 三位重构技术拍摄的广告,之前发了肯德基的,很多人想看麦当劳的,我也发一下,这个是用 LumalabAI 这个工具做的。
3
67
242
@nash_su
nash_su - e/acc
9 months
因为苹果 iOS 废止了 MCC 功能,所以最新的 tiktok 不需要国外手机卡就能访问了,梯子就行。 MCC 是 Mobile Country Code,用来识别 Sim 卡的国家
16
26
246
@nash_su
nash_su - e/acc
6 months
Hume AI ,《Her》真的变成现实了! 这个可能是我最近用过最有意思的产品,跟电影《Her》里的体验一模一样 1. 实时聊天,随时打断 2. 生成语音具有感情,也能识别你的感情 3. 好像有联网搜索功能,但不能展示信息,只有语音回复和配合的转译 但整体体验太棒了,地址:
10
54
247
@nash_su
nash_su - e/acc
10 months
Andrej Karpathy刚说LLM本质是两个文件,就有人把他合并为一个了。 llamafile是将模型和执行程序合并为一个文件,运行直接启动web服务,既可以直接web对话也可以API调用,作者包括llama.cpp的作者在内一种大佬
5
51
215
@nash_su
nash_su - e/acc
1 year
ChatGPT官方课程免费学 Andrew Ng 联合 OpenAI 发布了 ChatGPT Prompt Emgineering 教学课程,限时免费 学起来吧
3
68
215
@nash_su
nash_su - e/acc
2 years
自己训练大模型 换成 Alpaca Lora 模型,跑起来了 V100显卡,占用18G显存,预计不到9小时跑完,看看 lora 的效果如何
Tweet media one
5
35
196
@nash_su
nash_su - e/acc
10 months
比llama.cpp快12倍! PwerInfer推理引擎实测速度比llama.cpp快了11.69倍,日新月异啊
5
45
212
@nash_su
nash_su - e/acc
10 months
极大降低推理成本!微软提出 LLMLingua 方案 超长上下文尤其是RAG类的应用,是现在LLM的主流应用之一,但是超长上下文带来的是超高的成本。 微软提出的方案是使用小模型对prompt进行压缩,增加信息密度,然后再给大模型推理,最高可以做到20x的压缩,极大的降低了成本。
Tweet media one
Tweet media two
7
53
210
@nash_su
nash_su - e/acc
10 months
Phi-2 2.7B已经上架到HF了,赶紧用起来! 微软刚刚发布的Phi-2 2.7B,性能超越LLaMA2-70B,目前已经发布到hugging face,小巧强大,测起来🤩
8
46
206
@nash_su
nash_su - e/acc
1 year
StableDiffusion XL发布了 发布了 SD XL的beta版本,目前在clipdrop可以免费在线使用,大家可以试试 同时也提供了API接口,新用户注册就可以免费获得100个credit
6
54
201
@nash_su
nash_su - e/acc
1 year
惊呆了,gzip 算法竟然可以做语意搜索,性能还不弱于 BERT,但是 gzip 更轻量
@kyo_takano
Kyo
1 year
#ACL2023 Findingsで発表され、 「極めてシンプルでありながらBERT等の既存の深層学習手法を上回る」 として話題の「gzipによるセマンティック検索」の実装と直感的な説明をGitHub Gistに掲載しました
Tweet media one
3
277
1K
6
47
208
@nash_su
nash_su - e/acc
1 year
开源文字转语音模型 Bark🐶 英文是真的牛逼,中文是真的拉胯...效果见视频 - 支持生成简单的音效、背景噪音 - 支持大笑、叹息、哭泣 - 英文效果牛逼 - 还能生成歌曲
7
53
202
@nash_su
nash_su - e/acc
1 year
手机上跑LLM大模型 继WebLLM,作者又发布了MLC-LLM 在任意支持 CUDA、Vulkan、Metal的平台上,当然包括手机,就可以运行大模型 Demo:
Tweet media one
2
59
193
@nash_su
nash_su - e/acc
1 year
看得懂图片,又一个多模态大模型MiniGPT4发布 仅用4块A100训练10小时 MiniGPT4的原理很简单整合了BLIP-2和Vicuna,通过BLIP-2将图片转为文字描述,再用Vicuna基于这个文字描述进行内容创作。 因为冻结了大部分原本模型的参数,所以训练时间和硬件需求都极大减少。
Tweet media one
6
49
190
@nash_su
nash_su - e/acc
1 year
如何黑掉一个AirTag?断电! 昨晚看了一个逆向工程视频,讲解了如何开启AirTag Debug模式的方法,竟然是在特定时间将CPU短暂断电,这个特定时间就是代码判断是否开启 debug 模型那一段代码的执行时间,需要极为精确。 真的很神奇,没想到是这种听起来如此暴力的方法
Tweet media one
Tweet media two
Tweet media three
Tweet media four
3
37
195
@nash_su
nash_su - e/acc
10 months
2.7B参数性能超越70B参数! 微软刚刚发布了Phi-2 2.7B,性能超越LLaMA2-70B。 官方总结核心观点是:数据集质量高于一切,通过称之为“教科书级别”的数据集训练,甚至没有经过RLHF,就在27亿参数级别的模型上实现了超越700亿参数模型的能力。
2
30
193
@nash_su
nash_su - e/acc
2 years
M1芯片用SD2模型生成图片,功耗不到5W 突发奇想想看看M1芯片算图的能耗, 还是被CoreML的功耗震惊了,用SD2生成图片过程中,用 powermetrics 命令查看电脑功耗,发现只有不到5W,这个能耗比太牛逼了吧
Tweet media one
14
27
186
@nash_su
nash_su - e/acc
2 years
中文 Alpaca 搞了一堆保险中文问答语料,alpaca lora训练下,看看效果 so far so good
Tweet media one
Tweet media two
21
30
187
@nash_su
nash_su - e/acc
1 year
Adobe又发力了,AI生成/处理视频 Adobe公司的产品力还是很牛的,了解AI的各种问题和限制,做出了优秀的可以落地的功能 -AI 颜色矫正/增强 -动态文字和图形的自动生成 -自动匹配 B-roll 素材 -音乐及音效 -自动生成分镜脚本
5
57
178
@nash_su
nash_su - e/acc
11 months
Long-Int-Softmax 这个算法厉害了,解决了量化到4bit后精度严重退化的问题(见图二,从右往左看),传统Layer-Norm量化后会丢失大量信息,LIS解决了这个问题。在ViT模型实验里有极大提升!同时用位移计算取代了一次矩阵乘法,性能提升极大,不知道用在LLM中会是什么效果,期待有人试下
Tweet media one
Tweet media two
Tweet media three
3
46
185
@nash_su
nash_su - e/acc
2 years
前两天LLaMA这个方案加入了利用MMap技术优化内存使用的方案。本质就是让模型不用全部加载到内存,而是按需部分进行加载。 好处:即使8G内存也可以跑几十G的模型 坏处:硬盘IO成为瓶颈,CPU一直等待数据,效率极低 视频中是我的一个测试,可以看到,大点的模型实际运行中会进行大量PageIn操作,速度极慢
6
30
168
@nash_su
nash_su - e/acc
2 years
变相让ChatGPT拥有多模态能力 MM-ReAct是一个让ChatGPT拥有多模态能力的项目,方法很取巧: 1. 发送一个图片占位符 2. 引导GPT返回请求分析图片的指令 3. 通过正则识别指令,调取其他图像识别算法识别图片内容,将识别结果通过文本返回 4. GPT通过返回描述变相理解的图片内容
4
33
163
@nash_su
nash_su - e/acc
1 year
AI生成广告视频 日本伊藤园最新的广告,是通过AI生成的
16
35
165
@nash_su
nash_su - e/acc
3 years
稚晖君的新视频出来了,这次是做了一个牛逼的机械手臂。我觉得很多创业做机械臂的公司,可能看完可以直接原地解散了。每次看完他的视频,总想起来下图别的网友分享的这句话:
Tweet media one
9
23
156
@nash_su
nash_su - e/acc
2 years
240天,完整训练一个130亿参数的LLM需要多久? MosaicML 给出了一组数据,对与GPT-13B来说,至少需要4块A100-80G显卡,才能满足其最少208G显存的需求 而在8块A100上完整训练13B模型,则需要大约240天时间......完美诠释了时间就是金钱 相关数据链接:
Tweet media one
6
33
152
@nash_su
nash_su - e/acc
2 years
论 Prompt 重要性 今天看到好几个地方发这个填空挑战,AI 时代的我们必须交给 ChatGPT 来搞呀,但是一开始 ChatGPT 一直不能理解我们要什么,见下图2。尝试十几种不同 Prompt 后,终于可以输出不错的结果,见下图3。 那些天天说要失业的人,Prompt Engineering 在向你招手
Tweet media one
Tweet media two
Tweet media three
8
42
153
@nash_su
nash_su - e/acc
10 months
比SAM模型速度提升20倍! 继万物皆可分割的SAM模型后,Meta又发布了更高效的EffcientSAM模型。 EffcientSAM 比 SAM 速度提升了20倍,参数减少了20倍,性能损失仅为约1.5 mIoU。 项目地址: 在线demo地址:
5
41
157
@nash_su
nash_su - e/acc
11 months
75M模型能力超越175B! CodeFusion通过使用Diffusion算法实现了用75M参数模型超越Transfermer算法175模型的代码生成能力,这个确实有点强了。 原理是当前自回归生成式大模型无法修正已生成内容,而diffusion模型可以照顾全局不断修正,还没仔细看论文,不过确实让人震惊。
Tweet media one
5
45
159
@nash_su
nash_su - e/acc
1 year
llama.cpp 实时加载 lora! 越来越方便了,不用再麻烦的整合lora到原始模型,这样玩各种 lora 模型就非常方便了 ./main -m models/7B/ggml-model-f16.bin --lora lora/alpaca-lora-7b/ggml-adapter-model.bin
1
33
148
@nash_su
nash_su - e/acc
2 years
ChatPDF 背后的技术 大模型离线应用的功能拼图越来越完善了 ChatGPT 一个广泛应用就是基于 Embedding 数据的内容检索管理,但存在以下问题: 1. 在线服务,很多场景都不适合 2. 费用高 Llama 模型有人已经在为其添加 Embedding 输出能力了(目前还跑不起来),相信很快能用了
3
27
147
@nash_su
nash_su - e/acc
1 year
关于 ChatGPT 类的 LLM 会不会取代程序员的一篇不错的文章 同时,任何时候都不要矫枉过正,既不要觉得被取代,也不要觉得无用
3
31
149
@nash_su
nash_su - e/acc
2 years
万物皆可 Transformer 国人团队利用 Transformer 实现自动驾驶,很有意思的一个思路,其实NLP和视觉领域一直是相互借鉴,多个方法总是好的
2
42
135
@nash_su
nash_su - e/acc
1 year
直播利器!4090可渲染80fps 4K 4D视频。 4K4D 是一个SOTA的空间视频算法,看了下论文,利用空间雕刻算法生成粗糙点云数据,在交给MLP处理,最终生成高清空间视频。 效果手机上看还是不错的,但是放大细节还是差一��。
3
36
144
@nash_su
nash_su - e/acc
1 year
iPhone 14 Pro 打败 MacBook Pro M1 Max! 有人做了 Whisper.cpp+CoreML 的比对,转译一段11秒音频内容,iPhone14 Pro竟然比M1 Max快,看来ANE确实潜力无穷啊
Tweet media one
7
16
142
@nash_su
nash_su - e/acc
1 year
复旦大学MOSS模型,搭了个2x V100 32G的机器跑了下 问了句你是谁,回复生成花了44秒...
Tweet media one
23
17
134
@nash_su
nash_su - e/acc
10 months
llama.cpp已经支持mixtral-8x7B的MoE模型了! 开源的速度是真快呀,llama.cpp最新更新已经mixtral的模型了,我用M1 Max跑了下,速度可以到 8token/s,凑活可以用,需要内存比较多,我用的是Q5的模型,30个G。 不过中文依然不行... 量化后的模型下载:
7
36
143
@nash_su
nash_su - e/acc
6 months
专属UI,FreeAskInternet 即将引来大更新🎉🎉🎉 之前为了快速上线使用了 ChatGPT-Next-Web,但限制较多很多功能无法定制,体验不好。 所以我重新设计了更适合搜索问答使用习惯的全新UI界面,即将更新,先放出一个视频 demo 关注项目: 演示视频:⬇️⬇️⬇️
15
15
142
@nash_su
nash_su - e/acc
1 year
在树莓派集群运行650亿参数大模型? llama.cpp最新更新加入了基于MPI的分布式推理支持,每个节点可以只进行一部分推理操作,这样用一堆非常老的机器理论上也可以跑超大模型。 感觉LLM分布式共享推理服务有的搞了
Tweet media one
4
39
130
@nash_su
nash_su - e/acc
10 months
苹果MLX框架性能对比有了 跟MPS,CPU和CUDA的性能对比,显卡是V100,MLX潜力无穷啊。lora训练在M芯片上也能跑到100token/s。
Tweet media one
8
21
128
@nash_su
nash_su - e/acc
1 year
用一台M2 Ultra运行 70B的 LLaMA-v2 Q8,并发处理四路请求! 注意是并发,最新的 llama.cpp 使用 kv缓存实现的功能 从视频中看速度是非常可用的,另外作者说没有用7B或者13B的原因是因为返回太快了录不出并发效果……
7
23
126