--- license: mit datasets: - fibonacciai/Persian-llm-fibonacci-1-pro language: - en - ar - fa base_model: - fibonacciai/Persian-llm-fibonacci-1-7b-chat.P1_0 new_version: fibonacciai/fibonacci-1-EN-8b-chat.P1_5 pipeline_tag: text-generation tags: - text-generation-inference - FIBONACCI --- # Fibonacci-1-EN-8b-Chat.P1_5 Model ![Model Logo](https://huggingface.co/front/assets/huggingface_logo.svg) ## Introduction The **Fibonacci-1-EN-8b-Chat.P1_5** is a large language model (LLM) based on the LLaMA architecture, designed with 8.03 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations. ## Features - **Architecture:** LLaMA - **Number of Parameters:** 8.03 billion - **Formats:** GGUF supporting 4-bit (Q4_K_M), 5-bit (Q5_K_M), 8-bit (Q8_0), and 16-bit (F16) - **License:** MIT ## Applications - **Text Generation:** Creating creative and diverse texts - **Question Answering:** Providing accurate responses to user inquiries - **Machine Translation:** Translating texts between different languages - **Sentiment Analysis:** Identifying sentiments present in texts ## Usage To use this model, you can utilize various libraries such as Hugging Face's `transformers`. Below is a sample code to load and use the model: ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5") model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5") input_text = "Hello! How can I assist you today?" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response) **عربی:** ```markdown # نموذج Fibonacci-1-EN-8b-Chat.P1_5 ![شعار النموذج](https://huggingface.co/front/assets/huggingface_logo.svg) ## المقدمة نموذج **Fibonacci-1-EN-8b-Chat.P1_5** هو نموذج لغة كبير (LLM) يعتمد على بنية LLaMA، تم تصميمه بـ 8.03 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية. ## الميزات - **البنية:** LLaMA - **عدد المعلمات:** 8.03 مليار - **التنسيقات:** GGUF تدعم 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16) - **الترخيص:** MIT ## التطبيقات - **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة - **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين - **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة - **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص ## كيفية الاستخدام لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج: ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5") model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5") input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response) # مدل Fibonacci-1-EN-8b-Chat.P1_5 ![لوگوی مدل](https://huggingface.co/front/assets/huggingface_logo.svg) ## معرفی مدل **Fibonacci-1-EN-8b-Chat.P1_5** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری LLaMA است که با ۸٫۰۳ میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینه‌سازی شده است. ## ویژگی‌ها - **معماری:** LLaMA - **تعداد پارامترها:** ۸٫۰۳ میلیارد - **فرمت‌ها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16) - **مجوز استفاده:** MIT ## کاربردها - **تولید متن:** ایجاد متون خلاقانه و متنوع - **پاسخ به سؤالات:** ارائه پاسخ‌های دقیق به پرسش‌های کاربران - **ترجمه ماشینی:** ترجمه متون بین زبان‌های مختلف - **تحلیل احساسات:** شناسایی احساسات موجود در متون ## نحوه استفاده برای استفاده از این مدل، می‌توانید از کتابخانه‌های مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است: ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5") model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5") input_text = "سلام! چطور می‌توانم به شما کمک کنم؟" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response)