Qwen3模型体验
https://chat.qwen.ai/
Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能
https://chat.qwen.ai/
Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能
新的macbook,需要安装一下开发环境
国内brew安装
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
以前都是做游戏开发,现在学点前端软件,选中了unibest,应该是一个不错的选择。
1)创建unibest项目
# 如果没有 pnpm,请先安装: npm i -g pnpm
pnpm create unibest my-project
pnpm i
pnpm dev
pnpm dev:mp-weixin
2)原子化 UnoCSS 没有预览效果,请安装 VSCode 插件 antfu.unocss,Prettier
UnoCSS 是一个即时原子CSS引擎,设计为灵活和可扩展。类似Tailwind CSS。
npm install -g @vue/cli
在 VSCode 中配置 Ollama 使用 deepseek-coder-v2:16b 和 deepseek-r1:7b 模型的步骤
下载Ollama模型
ollama run deepseek-coder-v2:16b
ollama run deepseek-r1:7b
Tailwind中文文档https://www.tailwindcss.cn/
别人封装好的 https://flowrift.com/
安装Tailwind CSS
npm install -D tailwindcss
npx tailwindcss init
发布环境隐藏文档
import os
from dotenv import load_dotenv
load_dotenv()
env = os.getenv('env')
if env != 'develop':
app = FastAPI(docs_url=None, redoc_url=None)
else:
app = FastAPI()
恺英网络https://mp.weixin.qq.com/s/efm65q9ngu4PxG2nbNKyAw的ai工业化美术生成。
test ai img20241130,用comfyui+controlnet+python在本地批量生成的,质量不高,应该是模型的问题。
目前,Sana的模型和代码已经开源:代码:https://github.com/NVlabs/Sana
模型:https://huggingface.co/Efficient-Large-Model/Sana_1600M_1024px
开源的模型只有更大的Sana-1.6B,还没最小的模型Sana-0.6B。
Sana-1.6B比Sana-0.6B推理速度更慢一些(1.2s vs 0.9s),但是生图效果要更好一些。
而Flux dev是12B,所有Sana速度很快,生成1024x1024的图像比Flux dev要快20倍以上
开始学习blender了,记录一下技巧。
creator报错,奇怪问题,是因为挂了脚本没删掉!!!
cc.director.loadScene的时候,就疯狂报错,卡死界面。一直弹nul什么的。原来是挂了脚本删除了的原因!!!老版本坑死人啊
1)cocos大佬的bogChatGPT和MidJourney帮忙做游戏
[\u4e00-\u9fa5]
某币过年前会涨的原因,因为要过年割韭菜,所以要大涨,来渲染事件,大家都快来买呀。然后后面就顺利割韭菜了。
1)一个神奇的Stable Diffusion模型protogen
https://civitai.com/models/3666/protogen-x34-official-release
一、百度文心 https://wenxin.baidu.com/
1)文心大模型
ERNIE 3.0 文本理解与创作 https://wenxin.baidu.com/ernie3
可以用来写文章,国内可以跟chatGPT比一比的了。
2)百度ai绘画
3)文心搜索