QwQ-32Bとは何ですか?
Qwen/QwQ-32Bは、思考と推論が可能な最新の言語モデルです。このモデルは、従来の指示調整モデルと比較して、特に難しい問題において優れたパフォーマンスを発揮します。
QwQ-32Bの特徴は何ですか?
- モデルタイプ: 因果言語モデル
- パラメータ数: 32.5B
- レイヤー数: 64
- コンテキスト長: 最大131,072トークン
- トレーニングステージ: 事前トレーニングと強化学習による微調整
QwQ-32Bの使用例は何ですか?
- テキスト生成: 自然な会話やストーリーの生成
- 数学問題の解決: ステップバイステップでの解答提供
- 選択肢問題の回答: 標準化された形式での回答
QwQ-32Bの使い方は?
- モデルとトークナイザーの読み込み:
from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/QwQ-32B" model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) - プロンプトの設定:
prompt = "イチゴの中に含まれる「r」の数は?" messages = [{"role": "user", "content": prompt}] - 生成の実行:
text = tokenizer.apply_chat_template(messages) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs) response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)








