import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer import torch # Cargar el modelo estable que mejor funcion贸 model_name = "BSC-LT/salamandra-2b" if "tokenizer" not in globals(): tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) tokenizer.pad_token = tokenizer.eos_token if "model" not in globals(): model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16) model.eval() # 馃敼 Funci贸n de humanizaci贸n optimizada def humanize_text(input_text): system_prompt = ( "Reescribe el siguiente texto con un tono m谩s natural, humanizado y fluido, " "sin cambiar su significado ni agregar informaci贸n nueva. " "Evita repeticiones y burocracia innecesaria, asegurando que suene humano y claro." ) prompt = f"{system_prompt}\n\nTexto original: {input_text}\n\nTexto humanizado:" inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True) outputs = model.generate( inputs.input_ids, attention_mask=inputs.attention_mask, max_new_tokens=120, # 馃敼 Equilibrio entre reformulaci贸n y velocidad min_length=50, # 馃敼 Evita respuestas demasiado cortas do_sample=True, # 馃敼 Mantiene variabilidad sin ralentizar temperature=0.82, # 馃敼 Aumentamos un poco la creatividad top_p=0.85, # 馃敼 M谩s variabilidad sin afectar precisi贸n repetition_penalty=1.02, # 馃敼 Evita repeticiones sin ser tan restrictivo num_return_sequences=1, # 馃敼 Solo una respuesta bien formulada ) return tokenizer.decode(outputs[0], skip_special_tokens=True) # Interfaz en Gradio with gr.Blocks() as demo: gr.Markdown("# 鉁嶏笍 Humanizaci贸n de Texto con ALIA (Optimizaci贸n de Reescritura)") input_text = gr.Textbox(label="Pega aqu铆 el texto generado por IA para humanizar") output_text = gr.Textbox(label="Texto humanizado por ALIA", interactive=False) submit_button = gr.Button("Humanizar Texto") submit_button.click(humanize_text, inputs=input_text, outputs=output_text) demo.launch()