openclaw (구 Clawdbot) 세팅을 해봤습니다

    남는 m4 맥미니에 로컬 LLM으로 설정을 해봤는데 동작은 됩니다만 제대로 사용하려면 API 결제를 통해서 사용해야겠다 싶네요   LM스튜디오는 안되고 ollama로는 쉽게 사용 가능하더라고요 Qwen 3 4b, 8b 모델 사용해봤는데 딜레이가 꽤 깁니다 API를 통해 GLM-4.7 모델도 사용해봤지만 딜레이가 비슷합니다 추론시간이나 뭔가 구조적인 딜레이가 있는 거 같습니다 딜레이가 둘 다 있다면 로컬 LLM도 쓸만할 …