始终要保留一定范围的自由和孤独,无论是做梦、阅读、听音乐、思考还是其他事情。

⚠️本频道退出后自动封禁,请退出前思虑再三

群组: @RiverArgun
联系: @ArgunRiver_bot
助力:t.me/boost/ArgunRiver
AI API白嫖指南 & 客户端推荐

🎉 免费玩转AI模型!

DeepSeek R1、Grok、Gemini 2.0 Flash Thinking 等顶尖AI模型免费开放!火山平台(50万免费Tokens)、阿里百炼(100万Tokens)、Gemini(完全免费)、XAI API(5美元换150美元额度)、OpenRouter 等平台助你零成本入门。

客户端推荐:

Cherry Studio:跨平台,支持联网,免费1000次/月

ChatWise:简洁Mac风,联网搜索更丰富

FlowDown浮望:iOS新选择,支持网页浏览(即将上架)

🚀 低成本享受AI服务,从此不花冤枉钱!

详细内容请看PDF,此段简介为Grok3生成。


🌌 #AI
😭 @ArgunRiver
AI API白嫖指南&客户端推荐.pdf
5.7 MB
Telegram AI BOT 搭建

准备工作:

1.Telegram Token (获取方式点击 @BotFather 发送/start后发送/newbot起名结束后获取BOT的唯一Token)
2.一台VPS
3.OpenAI API&Gemini API&Claude API&第三方API站(其中任意一个都可以,根据自身需求选择)

开始搭建打开你准备的VPS安装Docker或者Docker Compose根据自身喜好选择。(安装教程根据VPS系统版本自行查找)

安装完Docker后执行此命令:

docker run -p 80:8080 --name chatbot -dit \
    -e BOT_TOKEN= 你的BOT TOKEN\
    -e API= 你的AI API\
    -e API_URL= 第三方API地址\
    -e CUSTOM_MODELS= 你想要添加的模型\
    -e NICK= 群组触发机器人的字眼\
    -e whitelist= 用户白名单\
    -e PASS_HISTORY= 上下文数量\
    -e GROUP_LIST=群组白名单 \
    yym68686/chatgpt:latest


Docker Compose执行此命令:

version: "3.5"
services:
  chatgptbot:
    container_name: chatgptbot
    image: yym68686/chatgpt:latest
    environment:
      - BOT_TOKEN=581478{bot_token}
      - API={token}
      - API_URL=https://{domain}/v1/chat/completions
    volumes:
      - ./user_configs:/home/user_configs
    ports:
      - 8080:8080


其中变量请自行对应项目提示调整。

如果你使用的单一API那么现在已经大功告成,你可以使用BOT并将他拉入群中使用了(建议添加BOT白名单和群组白名单防止滥用)

如果你使用几个API的话可以再在VPS上搭建一个New API这样就可以将手上多个API整合在一起了。

一键命令:

docker run --name new-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /www/wwwroot/new-api:/data calciumion/new-api:latest


此时需要将BOT的API网站更换为
http://你的VPS IP:3000/v1/chat/completions

并在New API后台管理添加对应的模型名称。

至此你只需要在BOT中使用/info调整模型使用习惯即可。

感谢这俩位大佬的项目让我们用上好用的AI BOT

https://github.com/yym68686/ChatGPT-Telegram-Bot
https://github.com/Calcium-Ion/new-api


⛱️标签:#AI #BOT
🌠频道:@ArgunRiver
🌌投稿:@ArgunRiver_bot
Mistral发布开放大模型Mixtral 8x22B,引领AI创新

据法国AI创业公司Mistral宣布,他们推出了最新的开放大模型Mixtral 8x22B,Mixtral 8x22B采用Apache 2.0许可证,任何人都可以自由使用,这使得它成为了一种真正开放的模型。

Mixtral 8x22B是一种稀疏的Mixture-of-Experts(SMoE)模型,具有1410亿个参数,但实际活跃参数只有390亿个。

Mixtral 8x22B具备多项优点,包括精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,并支持原生能函数调用。此外,该模型还具有64K令牌的上下文窗口。

Mistral的Mixtral 8x22B模型在AI领域引起了广泛关注。其出色的性能和开放的许可证使其成为许多研究人员和开发者的理想选择。这一模型的发布将进一步推动AI技术的创新和发展。


⛱️标签:#AI #人工智能
🌠频道:@ArgunRiver
🌌投稿:@ArgunRiver_bot
 
 
Back to Top