--- language: - en - fr license: mit datasets: - UMA-IA/PYXIS-Engine-v1 base_model: Qwen/Qwen2.5-VL-7B-Instruct tags: - aerospace - aeronautics - engineering - vision-language - component-detection pipeline_tag: image-to-text --- ## Model Details **Model Name:** UMA-IA/AQUILA-Engine-v1 **Authors:** - **Youri LALAIN**, Engineering student at French Engineering School ECE - **Lilian RAGE**, Engineering student at French Engineering School ECE **Base Model:** [Qwen/Qwen2.5-VL-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-VL-7B-Instruct) **Fine-tuned Dataset:** [UMA-IA/PYXIS-Engine-v1](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Engine_Aero_VLM) **License:** Apache 2.0 ## Model Description # Qwen2.5-VL Fine-tuned pour la détection de composants de moteurs aérospatiaux UMA-IA/AQUILA-Engine-v1 est une version spécialisée du modèle Qwen2.5-VL-7B-Instruct, fine-tunée pour détecter, identifier et analyser les composants de moteurs aéronautiques et aérospatiaux à partir d'images. Le modèle exploite le dataset UMA-IA/PYXIS-Engine-v1 pour améliorer sa capacité à reconnaître les pièces spécifiques, les défauts potentiels et les caractéristiques techniques des systèmes de propulsion. ## Capacités - Détection et identification précise des composants de moteurs aéronautiques - Analyse visuelle des pièces mécaniques et de leur état - Reconnaissance des défauts ou anomalies sur les composants - Fourniture d'informations techniques sur les pièces identifiées - Assistance au diagnostic visuel pour la maintenance ## Cas d'utilisation - Formation des techniciens et ingénieurs aéronautiques - Assistance à la documentation technique - Aide visuelle ## Détails de l'entraînement Ce modèle a été fine-tuné sur UMA-IA/PYXIS-Engine-v1, un dataset spécialement créé pour l'identification visuelle de composants de moteurs aérospatiaux. L'entraînement a été réalisé en utilisant des techniques de fine-tuning supervisé pour adapter le modèle Qwen2.5-VL à la reconnaissance de composants techniques spécifiques. ## Comment utiliser le modèle Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de Hugging Face : ```python from transformers import AutoModelForCausalLM, AutoTokenizer from PIL import Image import requests from io import BytesIO # Charger le modèle et le tokenizer model_name = "UMA-IA/AQUILA-Engine-v1" model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True) tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) # Charger une image (exemple avec une URL) image_url = "URL_DE_VOTRE_IMAGE" response = requests.get(image_url) image = Image.open(BytesIO(response.content)) # Préparer la requête prompt = "Identifiez les composants visibles dans cette image de moteur d'avion et décrivez leur fonction." response = model.chat(tokenizer, query=prompt, image=image) print(response)