-
-
0请教一下吗训练能跑起来checkpoint-1000这类名字的文件也会出来,但是进度条跑到100%后卡上短时间会报错TypeError: ChatGLMForConditionalGeneration.forward() got an unexpected keyword argument 'output_ids'用的是GLM4官方给的配置文件
-
6
-
0
-
7请教大佬,我本地跑langchain-chatchat,我的自身GPU是6G 共享内存是16G但是他只使用了我的6G的自身GPU没有用我的共享内存,怎么才能让他使用我的共享内存呢,现在报错是内存不足 torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 214.00 MiB. GPU 0 has a total capacity of 6.00 GiB of which 0 bytes is free. Of the allocated memory 5.13 GiB is allocated by PyTorch, and 1.68 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avo
-
5为什么我的4060 8g显存。16g内存。显卡占有率满了跑glm3量化4还是很慢啊。十秒一个字的样子
-
2用onebot让glm接上qq,但无论怎么样它都说自己是机器人,有没有大佬能给点思路怎么让glm有人格或者角色设定,并且能记住给的设定?
-
2
-
0想用LLM用于图节点的特征融合加强,将已有的模型得到的特征与LLM得到的特征融合加强后再进行任务的分类判断 小白请问各位大佬 应该如何实现orz
-
1
-
1
-
0七月LLM与langchain/知识图谱,楼主\/()[图片]
-
4我也在电脑上本地部署了很多AI了,虽然都是WINDOWS系统,我git HUB上面下载的,啊,但是本少爷我下一个目标就是chat glm,顺便搞个吧主的位置坐坐各位有什么部署上的问题可以问我,我帮你们问gpt 4
-
0怎么chatglm 修改logo 呀
-
0各位大佬们,请问使用ptuingv2微调chatglm时epoch怎么计算的
-
0求助大佬,如果想用chatglm实现文生图或者语音转文字功能是要调用其他模型的API吗,chatglm3的工具调用功能也是通过调用API来实现功能嘛
-
0
-
0
-
8chatglm2-6b 正常加载 torch.cuda.is_available() true 但是提问的时候报错: AttributeError: 'NoneType' object has no attribute 'int4WeightExtractionHalf' 有大佬遇到过这样的问题吗?求教怎么解决啊!
-
0
-
4git clone https://modelscope.cn/ZhipuAI/chatglm2-6b.git 用这个命令不对 有大佬知道怎么下载吗
-
2类似于这样的链接应该怎么用,git clone https://www.modelscope.cn/ZhipuAI/chatglm2-6b.git网页链接
-
25到现在为止全网找不到一个用多核服务器运行对话机器人的视频,我想知道40核80线程的运行效果,有没有大神
-
1最近打算整一台主机微调glm3和70B玩 预算比较紧张看来看去感觉mi50比较合适 但是70B要40GB显存,多卡的话不知道mi50支不支迟. 大佬们有什么更合适的显卡推荐吗
-
2
-
2本人反复验证,git clone https://huggingface.co/THUDM/chatglm2-6b的模型克隆下来是没有ice_text.model。到2023年9月5日为止。 所以在ChatGLM2-6B目录下执行:python web_demo.py。是会报RuntimeError: Internal: src/sentencepiece_processor.cc(1101) [model_proto->ParseFromArray(serialized.data(), serialized.size())]的错误的。请问一下各位大佬有没有遇到过这样的问题,如何解决?
-
20
-
4有需要的拿去,别忘记star:https://github.com/xlzhen-940218/Ubuntu-AMD-ROCM-ChatGLM3
-
3求各位大佬指点,顺便问一下,本地部署的glm是不是不用联网也可以运行
-
4Chinese-LangChain 说有网络搜索功能,不过要12G显存,我只有8G就没弄 ChatGLM-6B-Engineering能搜索贴吧知乎新闻等,但是没有教程,我部署遇到一些问题.... 大家有没有用过一些联网的功能啊?
-
5
-
3我运行python cli_demo.py去加载模型,到43%就会自动killed,有大神知道怎么解决嘛
-
5只起一个ChatGLM进程,处理请求只能一个个排队处理吗?
-
2正在探索通过实时对话训练CHATGLM,让它成为真正的学习型AI,感兴趣的同好们可以加QQ群:16353708
-
11
-
2
-
6我有一张rtx2060super和一张gtx1660
-
1做客服系统微调
-
1
-
11这里先是CMD反馈的报错代码 2023-11-15 22:24:08.356 Uncaught app exception Traceback (most recent call last): File "D:\openai.wiki\ChatGLM2-6B\ENV\lib\site-packages\streamlit\runtime\caching\cache_utils.py", line 264, in _get_or_create_cached_value cached_result = cache.read_result(value_key) File "D:\openai.wiki\ChatGLM2-6B\ENV\lib\site-packages\streamlit\runtime\caching\cache_resource_api.py", line 500, in read_result raise CacheKeyNotFoundError() streamlit.runtime.caching.cache_errors.CacheKeyNotFoundError During handling of the above exception, another exceptio
-
3本地部署ChatGLM2-B-int4时出现如图错误
-
4就收几元一小时吧
-
6提示如下: OSError: D:\ChatGLM2-6B does not appear to have a file named config.json. Checkout 'https://huggingface.co/D:\ChatGLM2-6B/None' for available files. 求助大佬怎么解决。 I7 9700 16G内存 4060Ti 16G显存 运行全部信息如下: D:\ChatGLM2-6B>cd chatglm D:\ChatGLM2-6B\chatglm>python.exe ../web_demo.py Traceback (most recent call last): File "D:\ChatGLM2-6B\web_demo.py", line 5, in <module> tokenizer = AutoTokenizer.from_pretrained("D:\ChatGLM2-6B", trust_remote_code=True) File "D:\ChatGLM2-6B\chatglm\lib\site-packages\tra
-
1
-
5跟着好几个视频和官方的快速上手试了半天,总是报错