Przetargi OnlineBETA

France – IT services: consulting, software development, Internet and support – Dynamisches beschaffungssystem - Dienstleistungen und Lieferungen im Bereich künstliche Intelligenz und Datenmanagement

ZAMKNIĘTYInne
Opis przetargu

Tytuł: France – IT services: consulting, software development, Internet and support – Dynamisches beschaffungssystem - Dienstleistungen und Lieferungen im Bereich künstliche Intelligenz und Datenmanagement Zamawiający: ARTE G.E.I.E. Kraj: FRA Data publikacji: 2025-06-13 Termin składania ofert: 2025-07-15 23:59 Opis przetargu: {'fra': ["• Concevoir, implémenter et superviser des architectures et modèles de données robustes et évolutifs. • Orchestrer la collaboration avec les équipes techniques pour garantir l'intégrité et la cohérence architecturale. • Évaluer, sélectionner et optimiser les technologies et outils pour les infrastructures de données, notamment Azure Data Factory ou solutions équivalentes. • Formaliser et déployer des référentiels de bonnes pratiques en matière de gouvernance des données. • Diagnostiquer et résoudre les problématiques techniques complexes liées aux architectures de données.", "• Développer des infrastructures évolutives et performantes pour de grands volumes de données. • Gérer l'ingestion, la transformation et la distribution des données. • Construire et renforcer les connecteurs vers des services tiers (Middleware, APIs). • Détecter et remédier de manière proactive aux vulnérabilités (tests de pénétration, audits de sécurité, surveillance des menaces). • Garantir la conformité aux réglementations de protection des données (RGPD et normes associées) tout au long du cycle de vie des données. • Mettre en œuvre des méthodes de protection avancées (chiffrement, anonymisation, IAM). • Renforcer les architectures pour prévenir les cyberattaques et assurer la conformité aux réglementations applicables. • Produire, structurer et mettre à jour la documentation technique pour faciliter un transfert efficace des connaissances.", "• Collecter, organiser et assurer la qualité des données en étroite collaboration avec les équipes éditoriales, techniques et juridiques. • Analyser les performances à travers des métriques clés (KPIs) et recommander des améliorations. • Concevoir et automatiser des tableaux de bord et des rapports. • Surveiller les workflows analytiques pour assurer conformité et fiabilité. • Garantir la conformité aux réglementations de protection des données (RGPD, confidentialité dès la conception/par défaut) dans tous les workflows analytiques. • Produire, structurer et mettre à jour la documentation technique pour faciliter un transfert efficace des connaissances. • Utiliser les outils de BI et de visualisation de données disponibles pour créer des rapports et tableaux de bord pour les parties prenantes internes. • Livrer des rapports d'étude et des documents de recommandation stratégique (tagging, segmentation, attribution marketing, scoring, évaluations de qualité des données, analyse de parcours, etc.).", "• Expérience complète en gestion du cycle de vie des données et des outils de gouvernance. • Générer ou enrichir des jeux de données synthétiques pour les phases de test ou pour compenser les lacunes de données. • Annoter et classifier des actifs multimodaux — texte, image, audio, vidéo — pour entraîner des modèles d'IA et enrichir des bases de connaissances. • Garantir la conformité aux réglementations de protection des données et liées à l'IA (RGPD, Règlement sur l'IA) sur l'ensemble du cycle de vie des données. • Mener des audits et un suivi continu de la qualité et de la sécurité des données. • Surveiller la lignée et les métadonnées pour assurer transparence et traçabilité.", "• Analyser et exploiter des données structurées et non structurées pour développer des modèles prédictifs, descriptifs et prescriptifs. • Créer et optimiser des algorithmes d'IA adaptés aux besoins business (recommandation, classification, segmentation, génération, analyse multimodale). • Collaborer avec les équipes techniques et métier pour intégrer des approches innovantes combinant plusieurs techniques d'IA. • Transformer les solutions d'IA en services et API puissants, évolutifs et maintenables. • Garantir la conformité aux réglementations de protection des données et liées à l'IA (RGPD, Règlement sur l'IA) et intégrer les principes d'équité, d'explicabilité et d'IA éthique tout au long du cycle de vie du modèle. • Surveiller les performances du modèle, la dérive et la qualité des données en production ; réentraîner et mettre à jour les modèles de manière itérative selon les besoins.", "• Identifier, adapter et fine-tuner des modèles open-source (vision, audio, parole, texte) pour des cas d'usage audiovisuels spécifiques à ARTE. • Implémenter des stratégies avancées d'interaction et d'optimisation — prompt-engineering, RAG (Retrieval-Augmented Generation), LoRA/distillation, quantization, pruning — pour maximiser précision, latence et pertinence éditoriale. • Architecturer des pipelines multimodaux end-to-end fusionnant vidéo, audio, images et texte pour enrichir les métadonnées, optimiser l'indexation et automatiser les workflows de production. • Établir des métriques d'évaluation, benchmarker et itérer sur les systèmes d'IA via des KPIs techniques et business clairement définis. • Concevoir et déployer des solutions multimodales cross-data et cross-modality pour étendre les capacités prédictives et génératives des modèles. • Administrer et optimiser l'infrastructure technique nécessaire au déploiement, monitoring et ajustement des modèles en production (clusters GPU/TPU, gateway d'inférence, scaling policies). • Orchestrer l'intégration des services IA dans l'écosystème média existant (MAM/PAM, NRCS, chaînes de transcription, pipelines de distribution, Système d’information logiciels SI) en collaboration avec product owners et tech leads. • Structurer, enrichir et valider les datasets audiovisuels en garantissant leur alignement avec les exigences éditoriales, culturelles et éthiques. • Instrumenter, mesurer et raffiner les modèles en conditions opérationnelles (accuracy, fairness, explainability, pertinence culturelle, empreinte carbone). • Coordonner avec les équipes pluridisciplinaires l'alignement des solutions IA avec les objectifs stratégiques et le cadre réglementaire (RGPD, AI Act). • Élaborer et maintenir une documentation technique exhaustive assurant la transmissibilité des connaissances.", "• Concevoir des interfaces utilisateur intuitives pour les outils d'IA et les tableaux de bord analytiques, maximisant la valeur des modèles prédictifs et génératifs. • Créer des systèmes avancés de visualisation de données qui transforment des informations multidimensionnelles en insights clairs et actionnables. • Développer des interactions homme-machine sophistiquées pour améliorer l'accessibilité et la compréhension des modèles d'IA (prompting, boucles de feedback, explication des résultats). • Réaliser des tests d'utilisabilité ciblés pour évaluer la compréhension, la confiance et l'expérience globale des utilisateurs avec les systèmes basés sur l'IA. • Définir et appliquer des principes de conception éthique qui garantissent la transparence, l'explicabilité et l'utilisation responsable de l'IA. • Garantir la conformité aux standards d'accessibilité (WCAG / RGAA) et aux réglementations de protection des données (RGPD, Règlement sur l'IA) tout au long du processus de conception. • Produire, structurer et mettre à jour la documentation de conception (guidelines de design system, modèles d'interaction, rapports de recherche utilisateur) pour soutenir une collaboration efficace et le transfert de connaissances.", "• Conseils stratégiques à l'intersection de l'IA, des données et des workflows médias spécifiques (rédaction, production de contenu, post-production). • Traduire les besoins éditoriaux, journalistiques et de production en solutions basées sur les données et l'IA. • Identifier et prioriser les cas d'usage à forte valeur (aide à la narration, optimisation des workflows de rédaction, planification de production, enrichissement des métadonnées, suivi des coûts, etc.). • Élaborer des stratégies d'IA et de Data alignées avec les objectifs des équipes éditoriales, de rédaction et de production dans un contexte de média de service public. • Conseiller sur les évolutions organisationnelles, la conduite du changement et le renforcement des capacités de l’entreprise pour une adoption durable de l'IA. • Évaluer l'impact de l'IA sur les processus journalistiques, les valeurs éditoriales et les missions de service public ; définir des KPIs de succès et des métriques de ROI. • Guider l'intégration de l'IA dans les outils de planification, les workflows d'édition, les systèmes d'archives, les plateformes MAM/PAM et NRCS. • Assurer l'alignement avec les standards éthiques et réglementaires (Règlement sur l'IA, RGPD, droits d'auteur, responsabilité éditoriale, diversité et inclusion). • Produire, structurer et mettre à jour des documents stratégiques, des feuilles de route et des directives de bonnes pratiques pour faciliter un transfert efficace des connaissances.", "• Évaluer la performance, la qualité et la conformité réglementaire des systèmes basés sur l'IA et les données dans tous les domaines d'ARTE (production, rédaction, distribution, support). • Comparer les solutions propriétaires aux alternatives open-source et SaaS, en mettant en évidence les compromis techniques, économiques et environnementaux. • Fournir des recommandations actionnables pour optimiser les coûts, l'empreinte carbone, l'évolutivité, la sécurité et la maintenabilité. • Identifier et quantifier les risques du projet (sécurité, conformité, éthique, intégrité éditoriale, droits d'auteur) et proposer des plans d'atténuation. • Guider l'alignement de bout en bout avec les réglementations et standards pertinents (Règlement sur l'IA, RGPD, droit d'auteur, accessibilité, obligations de service public). • Fournir une veille stratégique et technologique pour faire émerger les opportunités et menaces émergentes en matière d'IA, de données et d'innovation médias. • Renforcer les capacités internes par des ateliers, des sessions de formation et des programmes structurés de transfert de connaissances. • Co-créer des feuilles de route et des cadres de gouvernance qui orientent l'adoption de l'IA et des données, en assurant la gestion du changement et l'adhésion des parties prenantes. • Produire, structurer et mettre à jour des rapports d'audit, des évaluations de maturité et des tableaux de bord décisionnels pour soutenir une gouvernance transparente et informée par les données.", "• Analyser et traduire les besoins métier en spécifications fonctionnelles pour des solutions pilotées par les données et l'IA. • Construire et piloter des feuilles de route produit alignées avec la stratégie d'innovation d'ARTE et son mandat de service public. • Identifier, évaluer et prioriser les opportunités d'innovation dans l'écosystème des données, de l'IA et des technologies émergentes. • Orchestrer la collaboration entre les parties prenantes internes et les partenaires externes pour maximiser la création de valeur et atténuer les risques. • Promouvoir et évangéliser les initiatives basées sur les données et l'IA auprès des audiences internes et externes (démos, showcases, success stories). • Guider la transformation organisationnelle et la gestion du changement pour accélérer l'adoption de solutions centrées sur les données. • Garantir l'alignement avec les standards d'interopérabilité et les réglementations applicables (RGPD, Règlement sur l'IA, droits d'auteur). • Produire, structurer et mettre à jour les artefacts produit et la documentation projet (backlogs, OKRs, registres de risques, leçons apprises) pour soutenir une gouvernance transparente.", "• Élaborer et maintenir une stratégie open-source complète adaptée à la mission d'ARTE, à son paysage technique et à son contexte réglementaire. • Définir des modèles de gouvernance pour l'engagement OSS (workflows de contribution, choix de licences, évaluation des risques, politiques de publication). • Fournir des conseils juridiques et organisationnels sur les licences (MIT, GPL, AGPL, Creative Commons), les accords de contributeurs et les cas particuliers liés à l'IA (poids des modèles, jeux de données, prompts). • Concevoir des processus durables pour gérer et publier des projets OSS (documentation, versioning, divulgations de sécurité, métriques de santé des projets). • Établir des pratiques de gestion de communauté — canaux de communication, parcours d'intégration, directives de modération et visibilité externe. • Conseiller sur les partenariats stratégiques avec les fondations OSS, les diffuseurs publics, les consortiums de recherche et les initiatives de l'UE. • Surveiller les tendances juridiques, technologiques et communautaires pour anticiper les impacts sur l'écosystème d'IA et de données d'ARTE et assurer une conformité réglementaire continue (Règlement sur l'IA, RGPD). • Produire, structurer et mettre à jour des documents de politique, des présentations stratégiques et des matériels de formation pour faciliter l'adoption à l'échelle de l'organisation et le transfert de connaissances.", "Dans le contexte d'évolutions accélérées des technologies d'intelligence artificielle, cette catégorie vise à identifier des partenaires capables de fournir des infrastructures haute-performance, hautement évolutives et économiquement optimisées, spécifiquement architecturées pour les workloads d'entraînement et d'inférence de modèles IA. Nous recherchons des prestataires répondant aux exigences techniques suivantes : • Flexibilité et disponibilité opérationnelle : Provisionnement dynamique de clusters computationnels et instances virtuelles optimisées, conçus pour gérer simultanément des charges d'inférence 24/7 et des workloads d'entraînement intensifs à la demande, tout en orchestrant efficacement des pipelines de données distribués complexes. • Souveraineté numérique et conformité réglementaire : Solutions d'hébergement garantissant une localisation intégrale des données en territoire européen sans dérogation possible, une stricte conformité aux cadres réglementaires (RGPD, DSA, AI Act) et une indépendance technologique complète vis-à-vis des juridictions extra-européennes. • Ergonomie et interopérabilité : Capacités d'implémentation facilitée pour les tests, benchmarks et proof-of-concepts (PoC), optimisant ainsi les cycles de développement des équipes d'ingénierie et de recherche IA. • Optimisation du ratio coût-performance : Propositions tarifaires compétitives offrant un rendement technico-économique supérieur aux solutions hyperscalers conventionnelles, avec grilles tarifaires transparentes et mécanismes d'optimisation des coûts basés sur la consommation effective. • Compatibilité avec les architectures d'accélération avancées : Accès à des infrastructures matérielles spécialisées incluant des GPUs dernière génération (ex NVIDIA A100, H100, Blackwell), TPUs et accélérateurs spécifiquement conçus pour les charges IA haute-densité computationnelle. • Services managés end-to-end : Offres de services entièrement administrés couvrant la gestion infrastructure, les cycles de mise à jour, l'optimisation des performances, la surveillance sécuritaire et le support technique spécialisé IA. • Efficience énergétique et éco-responsabilité : Engagement démontrable dans l'implémentation d'infrastructures énergétiquement frugales, la réduction de l'empreinte carbone et la transparence métrique sur les indicateurs de durabilité environnementale. Outils et solutions IA Les catégories suivantes rassemblent des solutions prêtes à l’emploi, disponibles sous forme de licences on-premise ou SaaS, conçues pour s’intégrer facilement aux systèmes, workflows ou applications déjà en place.", "Solutions permettant aux équipes d'ingénierie de concevoir, implémenter, tester et collaborer efficacement en exploitant les dernières avancées de l’IA. • Plateformes collaboratives intégrées : Solutions enterprise-grade fournissant des environnements de développement synchronisés en temps réel avec gestion de version distribuée spécifiquement optimisés pour les projets IA/ML. • Systèmes d'assistance au développement augmentés par IA : Suites d'outils augmentant substantiellement la productivité des équipes techniques via fonctionnalités d'autocomplétion intelligente contextuelle, génération programmatique assistée et refactoring automatisé pour les environnements data science. • Technologies avancées supportant la documentation auto-générée, le debugging intelligent et l'optimisation algorithmique pour réduire significativement les cycles de développement et accélérer la mise en production.", "Solutions technologiques facilitant la découverte, l'évaluation et l'intégration de modèles d'IA, tout en supportant les architectures émergentes basées sur des agents autonomes. • Plateformes unifiées d'accès aux modèles : Environnements centralisés proposant des catalogues structurés de modèles préentraînés avec interfaces standardisées et compatibilité multi-fournisseurs, permettant une abstraction des couches d'accès sous-jacentes. • Modèles computationnellement frugaux : Implémentations optimisées à faible empreinte énergétique et computationnelle, conçues pour des déploiements sous contraintes de ressources et des applications edge-computing. • Écosystèmes verticalisés par domaine et modalité : Collections de modèles spécifiquement adaptés aux verticales métier prioritaires (médias audiovisuels notamment) et couvrant l'intégralité du spectre modal (textuel, visuel, audio, multimodal). • Frameworks avancés d'orchestration de modèles : Systèmes d'intelligence décisionnelle capables de router ou composer dynamiquement les modèles selon des contraintes paramétrables de latence, coût, précision et contexte applicatif. • Architecture orientée agents : Suites d'outils permettant aux équipes techniques de concevoir, paramétrer et superviser des agents LLM autonomes ou semi-autonomes (capacités de planification, d’exécution d’outils tierces et de raisonnement séquentiel) pour chaîner modèles prédictifs et services externes en workflows end-to-end hautement automatisés", "Solutions techniques intégrées pour l'administration complète du cycle de vie des modèles d'IA — de la phase R&D à l'opérationnalisation en production. • Capacités de déploiement multi environnements : plateformes d’orchestration assurant un déploiement unifié et transparent des artefacts de modèles à travers des environnements hétérogènes (cloud public/privé, edge computing, infrastructures on premise), avec mécanismes avancés de versioning et possibilité de rollback instantané. • Autoscaling intelligent et optimisation dynamique des ressources : systèmes avancés ajustant automatiquement l’infrastructure computationnelle en fonction des variations de charge, avec équilibrage adaptatif du trafic pour concilier performance d’inférence et efficience économique. • Chaînes CI/CD spécialisées IA : orchestration de bout en bout couvrant l’entraînement jusqu’au déploiement contrôlé, incluant tests automatisés, validations multidimensionnelles et livraison continue adaptées aux spécificités des modèles prédictifs. • Infrastructure de gouvernance et de sécurisation du cycle de vie : écosystèmes technologiques prenant en charge les déploiements progressifs (canary, blue green), le rollback automatisé sur détection d’anomalies, des contrôles d’accès granulaires et un monitoring en temps réel pour atténuer les risques et garantir la conformité réglementaire.", 'Solutions avancées destinées à la structuration des données et à la recherche sémantique au sein d’architectures IA. • Plateformes de données sémantiques et vectorielles : moteurs de recherche hybrides alliant capacités sémantiques et vectorielles, dotés de fonctions de clustering, d’embedding et de retrieval multimodal, adaptées aux cas d’usage médias et éditoriaux. • Infrastructures de bases de données spécialisées : solutions de stockage managées ou embarquables (SQL, NoSQL, vectorielles, graphes) offrant haute disponibilité, résilience et optimisation pour les workloads analytiques complexes et l’algèbre vectorielle distribuée. • Pipelines d’ingestion et de transformation data flow : frameworks d’automatisation pour l’acquisition, la transformation et l’indexation de données multisources et multiformats, intégrant des chaînes complètes d’enrichissement sémantique et de vectorisation cross modal (texte, image, audio, vidéo). • Systèmes d’accès documentaire contextuel : solutions assurant une récupération précise des documents grâce à une compréhension contextuelle avancée, une analyse intent aware et la préservation des relations sémantiques entre entités. • Architectures RAG verticalisées : frameworks RAG spécialisés disposant d’un apprentissage continu, de mises à jour incrémentielles sans réindexation globale et de stratégies avancées de gestion de mémoire.', "Solutions dédiées au monitoring, au pilotage, à l’optimisation des performances et à la fiabilité des modèles d'IA en environnement de production. • Plateformes d’observabilité et de monitoring avancé : solutions intégrées proposant des tableaux de bord en temps réel et des alertes configurables pour surveiller en continu les métriques d’usage et de performance, avec détection d’anomalies et analyses prédictives de dérive comportementale des modèles. • Infrastructures d’évaluation et de benchmarking systématique : frameworks spécialisés pour l’évaluation continue des modèles prédictifs et des systèmes RAG, selon des critères métier spécifiques, offrant un benchmarking automatisé entre versions successives et référentiels sectoriels. • Mécanismes d’assurance qualité et de mitigation des hallucinations : techniques permettant d’identifier proactivement et de réduire les hallucinations, d’améliorer la cohérence factuelle et de valider la qualité des contenus générés selon plusieurs dimensions. • Dispositifs de conformité réglementaire et de gouvernance technique : plateformes automatisées d’évaluation et de certification de conformité (RGPD, AI Act) et de respect des standards d’auditabilité, intégrant l’explicabilité algorithmique, la journalisation sécurisée et la traçabilité granulaire des accès et des interactions.", "Solutions dédiées à l'optimisation des processus d'entraînement, de fine-tuning et de gestion des corpus d'apprentissage. • Plateformes intégrées de fine tuning supervisé : environnements spécialisés pour adapter des modèles fondationnels à des cas d’usage ciblés, tout en optimisant les volumes de données nécessaires. Support complet de l’apprentissage supervisé, de l’instruction tuning et du RLHF (Reinforcement Learning from Human Feedback). • Automatisation end to end des pipelines d’entraînement : orchestration complète du cycle d’entraînement, avec automatisation avancée du réglage d’hyper paramètres, parallélisation distribuée et cadres d’expérimentation reproductible. • Gestion centralisée des corpus d’entraînement : plateformes unifiées pour l’ingestion, l’annotation collaborative et l’enrichissement sémantique des jeux de données, intégrant assurance qualité et traçabilité. • Optimisation des performances et de l’efficience computationnelle : solutions visant à réduire l’empreinte et les coûts d’entraînement via LoRA, QLoRA, quantization et pruning, tout en préservant les performances prédictives des modèles. • Stratégies de data augmentation : méthodologies systématiques pour enrichir ou diversifier les jeux de données d’entraînement, améliorant la robustesse et la généralisation des modèles à coût marginal réduit. • Évaluation continue et monitoring des modèles : intégration de métriques de performance et de dérive, avec tableaux de bord en temps réel pour assurer la qualité, la fiabilité et la conformité tout au long du cycle de vie du modèle.", "• Reconnaissance vocale et sous-titrage automatique : Systèmes ASR (Automatic Speech Recognition) haute-fidélité, adaptés à des domaines spécialisés et à une grande variété d’accents, assortis de technologies d’alignement multilingue précises assurant une synchronisation image-par-image des transcriptions avec les flux audio/vidéo. • Traduction automatique et localisation : Moteurs de traduction personnalisables pour sous-titres, transcriptions et métadonnées, intégrant la gestion de glossaires, l’adaptation à des domaines métier spécifiques et des métriques d’évaluation de la qualité. • Suite d'outils post-production et workflow éditorial : Environnements avancés d’édition de sous-titres intégrant la détection automatique des intervenants, la normalisation stylistique et la gestion des contraintes temporelles ; systèmes hybrides combinant automatisation intelligente et intervention éditoriale granulaire. • Extraction et enrichissement de métadonnées multimodales : frameworks IA spécialisés dans l’identification et la classification sémantique d’entités clés (personnes, objets, lieux, actions, thématiques) au sein de contenus médias, générant des métadonnées structurées conformes aux standards du secteur. • Plateformes collaboratives d'annotation vidéo : environnements de travail collaboratifs facilitant l’annotation semi-supervisée de contenus audiovisuels, avec assistance IA pour la segmentation temporelle, le suivi d’objets et la reconnaissance contextuelle d’éléments visuels."], 'deu': ['• Entwurf, Implementierung und Überwachung robuster und skalierbarer Datenarchitekturen und -modelle • Koordination der Zusammenarbeit mit den Technik-Teams zur Gewährleistung der architektonischen Integrität und Kohärenz • Bewertung, Auswahl und Optimierung von Technologien und Tools für die Dateninfrastruktur, insbesondere von Azure Data Factory oder gleichwertigen Lösungen • Formalisierung und Einsatz von Best-Practice-Referenzen für die Datenverwaltung • Diagnose und Lösung komplexer technischer Problemstellungen im Zusammenhang mit Datenarchitekturen', '• Entwicklung einer skalierbaren und leistungsstarken Infrastruktur für große Datenmengen • Management der Dateningestprozesse, -verarbeitung und -distribution • Aufbau und Stärkung von Konnektoren zu Drittanbieterdiensten (Middleware, APIs) • proaktive Erkennung und Behebung von Schwachstellen (Penetrationstests, Sicherheitsaudits, Bedrohungsüberwachung) • Gewährleistung der Einhaltung von Datenschutzbestimmungen (DSGVO und zugehörige Standards) während des gesamten Data-Lifecycles • Umsetzung erweiterter Schutzmethoden (Verschlüsselung, Anonymisierung, IAM) • Stärkung der Architekturen zur Verhinderung von Cyberangriffen und zur Einhaltung geltender Vorschriften • Erstellung, Strukturierung und Aktualisierung der technischen Dokumentation zur Erleichterung des Wissenstransfers', '• Sammlung und Organisation der Daten sowie Gewährleistung der Datenqualität in enger Zusammenarbeit mit Redaktion, Technik und der Rechtsabteilung • Leistungsanalyse mithilfe von KPIs und Erarbeitung entsprechender Verbesserungsvorschläge • Konzeption und Automatisierung von Dashboards und Reports Komplexe Analyseergebnisse f√ºr nicht-technische Zielgruppen verständlich aufbereiten und vermitteln • Überwachung analytischer Prozesse zur Gewährleistung von Compliance und Verlässlichkeit • Gewährleistung der Einhaltung von Datenschutzbestimmungen (DSGVO, „Privacy by design“ und „Privacy by default“) bei allen Analyse-Workflows • Erstellung, Strukturierung und Aktualisierung der technischen Dokumentation zur Erleichterung des Wissenstransfers • Nutzung verfügbarer BI- und Datenvisualisierungstools zur Erstellung von Berichten und Dashboards für interne Beteiligte • Bereitstellung von Studien und strategischer Empfehlungen (Tagging, Segmentierung, Marketing-Attribution, Scoring, Auswertungen der Datenqualität, Nutzerverhalten, usw.)', '• Umfassende Erfahrung in den Bereichen Data-Lifecycle-Management und Nutzung von Datenmanagement-Tools • Verwaltung oder Anreicherung synthetischer Datensätze für Testläufe oder zum Füllen von Datenlecks • Annotation und Klassifizierung multimodaler Datenbestände – Text, Bild, Audio, Video – zum Training von KI-Modellen und zur Anreicherung von Wissensdatenbanken • Gewährleistung der Einhaltung von Datenschutzbestimmungen (DSGVO, KI-Verordnung) während des gesamten Data-Lifecycles • Durchführung von Audits und kontinuierliche Überwachung der Datenqualität und -sicherheit. • Überwachung der Konformität sowie der Metadaten hinsichtlich Transparenz und Rückverfolgbarkeit', '• Analyse und Auswertung strukturierter und unstrukturierter Daten zur Entwicklung prädiktiver, deskriptiver und präskriptiver Modelle • Erstellung und Optimierung von KI-Algorithmen für Unternehmensbedarfe (Empfehlung, Klassifizierung, Segmentierung, Generierung, multimodale Analyse) • Zusammenarbeit mit technischen und fachlichen Teams zur Integration innovativer Ansätze zur Kombination verschiedener KI-Techniken • KI-Lösungen in leistungsfähige, skalierbare und wartbare Services und APIs überführen • Gewährleistung der Einhaltung von Datenschutz- und KI-bezogenen Vorschriften (DSGVO, KI-Verordnung) und Integration der Grundsätze von Fairness, Erklärbarkeit und ethischer KI während des gesamten Lifecycles des Modells • Überwachung der Modell-Perfomances, von Drift und Datenqualität in der Produktion; iteratives Neutraining der Modelle nach Bedarf sowie deren Aktualisierung', '• Identifizierung, Anpassung und Feintuning von Open-Source-Modellen (Vision, Audio, Sprache, Text) für ARTE-spezifische audiovisuelle Anwendungsfälle • Implementierung hochentwickelter Interaktions- und Optimierungsstrategien – Prompt-Engineering, RAG (Retrieval-Augmented Generation), LoRA/Destillation, Quantisierung, Pruning – zur Maximierung von Genauigkeit, Latenz und redaktioneller Relevanz • Architektur multimodaler End-to-End-Pipelines zur Fusion von Video, Audio, Bild und Text, zur Anreicherung der Metadaten, Optimierung der Indexierung und zur Automatisierung des Produktionsworkflows • Auswertung, Vergleich und kontinuierliche Verbesserung von KI-Systemen gegenüber sowohl technischen als auch geschäftsprozess-orientierten KPIs • Entwurf und Einsatz multimodaler Cross-Data- und Cross-Modality-Lösungen zur Erweiterung der prädiktiven und generativen Fähigkeiten der Modelle • Verwaltung und Optimierung der für die Bereitstellung, Monitoring und Anpassung der Modelle in der Produktion erforderlichen technischen Infrastruktur (GPU/TPU-Cluster, Inferenz-Gateway, Skalierungsrichtlinien) • Koordination der Integration von KI-Diensten in die bestehenden Mediensysteme (MAM/PAM, NRCS, Transkriptions- und Distributionspipelines, Softwareinformationssysteme) in Zusammenarbeit mit Product Ownern und Tech Leads • Strukturierung, Anreicherung und Validierung von audiovisuellen Datasets gemäß der redaktionellen, kulturellen und ethischen Standards • Überwachung, Auswertung und kontinuierliche Verbesserung der Modelle unter realen Bedingungen (Genauigkeit, Erklärbarkeit, kulturelle Relevanz, CO2-Fußabdruck) • Koordination der Abstimmung der KI-Lösungen mit den strategischen Zielen sowie dem rechtlichen Rahmen gemeinsam den multidisziplinären Teams (DSGVO, KI-Verordnung) • Ausarbeitung und Pflege einer umfassenden technischen Dokumentation zur Sicherstellung des Wissenstransfers', '• Gestaltung intuitiver Benutzeroberflächen für KI-Tools und Analyse-Dashboards zur Maximierung des Werts prädiktiver und generativer Modelle • Erstellung hochentwickelter Datenvisualisierungssysteme zur Umwandlung multidimensionaler Informationen in klare und umsetzbare Erkenntnisse • Entwicklung nutzerfreundlicher Schnittstellen und Interaktionen zur Förderung der Transparenz und Verständlichkeit von KI-Modellen (z. B. durch Prompting, erklärende Visualisierungen, Feedback-Schleifen) • Durchführung gezielter Usability-Tests zur Bewertung des Verständnisses, des Vertrauens und der Gesamterfahrung der Nutzer:innen von KI-Systemen • Definition und Anwendung ethischer Designprinzipien zur Gewährleistung von Transparenz, Erklärbarkeit sowie verantwortungsvoller Nutzung von KI • Gewährleistung der Einhaltung von Standards für Barrierefreiheit (WCAG / RGAA) und Datenschutzbestimmungen (DSGVO, KI-Verordnung) während des gesamten Designprozesses • Produktion, Strukturierung und Aktualisierung der Designdokumentationen (Design-System-Guidelines, Interaktionsmodelle, User Research Reports) für effizientere Zusammenarbeit und besseren Wissenstransfer', '• Strategische Beratung an der Schnittstelle KI, Daten und der spezifischen Medien-Workflows (Redaktion, Content-Produktion, Postproduktion) • Umsetzung redaktioneller, journalistischer sowie produktionstechnischer Anforderungen in daten- und KI-basierte Lösungen • Identifizierung und Priorisierung von hochwertigen Anwendungsfällen (Storytelling-Support, Optimierung von Redaktionsworkflows, Produktionsplanung, Anreicherung von Metadaten, Kostenverfolgung, usw.) • Erarbeitung von KI- und Data-Strategien, die die Arbeitsziele von Redaktion, Journalismus und Produktion in einem öffentlich-rechtlichen Medienumfeld gezielt unterstützen • Unterstützung bei organisatorischen Veränderungen, Veränderungsprozessen und dem Kapazitätsaufbau zur langfristigen Integration von KI-Lösungen • Bewertung der Auswirkungen von KI auf journalistische Arbeitsabläufe, redaktionelle Werte sowie den öffentlich-rechtlichen Auftrag; Definition von Erfolgs-KPIs und ROI-Metriken • Beratung zur Implementierung von KI in redaktionellen und produktionellen Kernsystemen – von der Planung über Editing-Workflows bis hin zu Archiv- und Newsroom-Plattformen • Sicherstellung der Ausrichtung an ethischen und regulatorischen Standards (KI-Verordnung, DSGVO, Urheberrecht, redaktionelle Verantwortung, Vielfalt und Inklusion) • Erstellung, Strukturierung und Aktualisierung von Strategiepapieren, Roadmaps und Best-Practices-Richtlinien zur Erleichterung eines effektiven Wissenstransfers', '• Bewertung der Leistung, Qualität und Einhaltung gesetzlicher Vorschriften von KI- und datengestützten Systemen in allen Bereichen von ARTE (Produktion, Redaktion, Distribution, Support) • Vergleich von proprietären Lösungen mit Open-Source- und SaaS-Alternativen und Hinweis auf technische, wirtschaftliche bzw. ökologische Kompromisse • Präsentation umsetzbarer Empfehlungen zur Optimierung von Kosten, des CO2-Fußabdrucks, der Skalierbarkeit, der Sicherheit sowie der Wartbarkeit • Identifikation und Quantifizierung der Projektrisiken (Sicherheit, Compliance, Ethik, redaktionelle Integrität, Urheberrecht) und Vorschlag von Plänen zur Risikominderung • Anleitung zur durchgängigen Ausrichtung an relevanten Vorschriften und Standards (KI-Gesetz, DSGVO, Urheberrecht, Barrierefreiheit, Auflagen als öffentlich-rechtliches Medienunternehmen) • Gewährleistung strategischer und technologischer Überwachung zur Identifizierung aufkommender Chancen bzw. Bedrohungen in den Bereichen KI, Daten und Medieninnovation • Stärkung interner Kapazitäten durch Workshops, Fortbildungsveranstaltungen und strukturierter Programme zum Wissenstransfer • Mitgestaltung von Roadmaps und Governance-Rahmen zur Einbindung von KI bei gleichzeitigem Change-Management sowie der Einbeziehung der Beteiligten • Erstellung, Strukturierung und Aktualisierung von Audit-Berichten, Reifegradbewertungen und Entscheidungs-Dashboards zur Unterstützung einer transparenten und datengestützten Unternehmensführung', '• Analyse und Übersetzung von Geschäftsanforderungen in funktionale Spezifikationen für daten- und KI-gesteuerte Lösungen • Entwicklung und Steuerung von Produkt-Roadmaps im Einklang mit der Innovationsstrategie von ARTE und dem öffentlich-rechtlichen Auftrag • Innovationspotenziale im Umfeld von Daten, Künstlicher Intelligenz und neuen Technologien erkennen, analysieren und strategisch priorisieren • Koordinierung der Zusammenarbeit zwischen internen Beteiligten und externen Partnern zur Maximierung der Wertschöpfung und zur Minderung der Risiken • Bewerbung und umfassende Förderung von auf Datenverarbeitung und KI basierenden Initiativen bei internen und externen Zielgruppen (Demos, Showcases, Erfolgsgeschichten) • Anleitung zur organisatorischen Transformation sowie zum Change-Management zur schnelleren Einführung datenzentrierter Lösungen • Ausrichtung an Interoperabilitätsstandards und geltenden Vorschriften (DSGVO, KI-Verordnung, Urheberrecht) • Produktion, Strukturierung und Aktualisierung der Produktartefakte sowie der Projektdokumentationen (Backlogs, OKRs, Risikoregister, Lessons Learned) zur Unterstützung einer transparenten Governance', '• Entwicklung und Verfolgung einer auf den Auftrag von ARTE, seine technische Landschaft und den regulatorischen Kontext zugeschnittenen umfassenden Open-Source-Strategie • Festlegung von Governance-Modellen zum Einsatz von Open Source Software (Beitragsworkflows, Lizenzauswahl, Risikobewertung, Veröffentlichungsrichtlinien) • Rechtliche und organisatorische Beratung zu Lizenzen (MIT, GPL, AGPL, Creative Commons), Vereinbarungen für Anbieter und Sonderfälle im Zusammenhang mit KI (Gewicht von Modellen, Datensätze, Prompts) • Gestaltung nachhaltiger Prozesse zur Verwaltung und Veröffentlichung von OSS-Projekten (Dokumentation, Versionierung, Offenlegung von Sicherheitsvorkehrungen, Metriken zur „Project Health Check“) • Etablierung von Community-Management-Praktiken – Kommunikationskanäle, Integrationspfade, Moderationsrichtlinien und externe Sichtbarkeit • Beratung zu strategischen Partnerschaften mit OSS-Stiftungen, öffentlichen Rundfunkanstalten, Forschungskonsortien und EU-Initiativen • Überwachung rechtlicher, technologischer und gesellschaftlicher Trends zur Antizipation möglicher Folgen auf das KI- und Datensystem von ARTE und zur kontinuierlichen Einhaltung von Vorschriften (KI-Verordnung, DSGVO) • Erstellung, Strukturierung und Aktualisierung von Dokumenten zur Unternehmenspolitik, von strategischen Präsentationen und Schulungsmaterialien zur Förderung der unternehmensinternen Verbreitung sowie des Wissenstransfers', 'Vor dem Hintergrund der beschleunigten Entwicklung der KI-Technologien werden mithilfe dieser Kategorie Partner mit dem Ziel der Bereitstellung hochleistungsfähiger, hoch skalierbarer und wirtschaftlich optimierter Infrastrukturen, deren Architektur sich speziell für das Training von KI-Modellen und -Inferenz eignet, gesucht. Mögliche Dienstleister sollten folgende technische Anforderungen erfüllen: • Flexibilität und Einsatzbereitschaft: dynamische Bereitstellung von optimierten Computing-Clustern und virtuellen Instanzen zur gleichzeitigen Bewältigung von 24/7-Inferenzlasten und intensiven On-Demand-Trainings-Workloads sowie zur effizienten Orchestrierung komplexer verteilter Datenpipelines • Digitale Souveränität und Einhaltung von Vorschriften: Hosting-Lösungen mit einer garantierten vollständigen Lokalisierung der Daten auf europäischem Territorium ohne Ausnahme, mit einer garantierten strikten Einhaltung der gesetzlichen Rahmenbedingungen (DSGVO, DSA, KI-Verordnung) sowie einer garantierten vollständigen technologischen Unabhängigkeit von außereuropäischen Gerichtsbarkeiten • Ergonomie und Interoperabilität: erleichterte Implementierungsmöglichkeiten für Tests, Benchmarks und Proof-of-Concepts (PoC) zur Optimierung der Entwicklungszyklen von KI-Engineering- und Forschungsteams • Optimierung des Kosten-Leistungs-Verhältnisses: wettbewerbsfähige Tarifvorschläge für eine höhere technisch-wirtschaftliche Effizienz als herkömmliche Hyperscaler-Lösungen mit transparenten Tarifrastern und Kostenoptimierungsmechanismen auf der Grundlage des tatsächlichen Verbrauchs • Kompatibilität mit hochentwickelten Beschleunigungsarchitekturen: Zugang zu spezialisierter Hardware-Infrastruktur, einschließlich Grafikprozessoren der neuesten Generation (z. B. NVIDIA A100, H100, Blackwell), TPUs und speziell für KI-Lasten mit hoher Rechendichte entwickelten Beschleunigern • End-to-End Managed Services: vollständig verwaltete Serviceangebote mit Infrastrukturmanagement, Update-Zyklen, Leistungsoptimierung, Sicherheitsüberwachung und speziellem KI-Support • Energieeffizienz und ökologische Verantwortung: nachweisbares Engagement bei der Implementierung einer energieeffizienten Infrastruktur, der Reduzierung des CO2-Fußabdrucks und der metrischen Transparenz von Indikatoren zur ökologischen Nachhaltigkeit KI-Werkzeuge und Lösungen Die folgenden Kategorien umfassen einsatzfertige, als On-Premise- oder SaaS-Lizenzen erhältliche Lösungen; diese sind auf eine leichte Integrierbarkeit in bereits vorhandene Systeme, Workflows oder Anwendungen/Softwaresysteme ausgelegt. Kategorie 13: Co-Development-Umgebungen Lösungen für Ingenieurteams zum effizienten Entwurf, zur Implementierung, zum Test und zur Zusammenarbeit unter Nutzung der neuesten KI-Fortschritte • Integrierte kollaborative Plattformen: Enterprise-grade-Lösungen für in Echtzeit synchronisierte Entwicklungsumgebungen mit eigens für KI/ML-Projekte optimiertem Versionsmanagement • KI-erweiterte Entwicklungsunterstützungssysteme: Tool-Suiten zur erheblichen Steigerung der Produktivität von Technik-Teams durch kontextbezogene intelligente Autovervollständigung, unterstützte Programmgenerierung und automatisiertes Refactoring für Data-Science-Umgebungen • Hochentwickelte Technologien zur Unterstützung selbstgenerierter Dokumentationen, intelligenten Debuggings und algorithmischer Optimierung zur deutlichen Verkürzung der Entwicklungszyklen und zur schnelleren Aufnahme der Produktion', 'Lösungen für Ingenieurteams zum effizienten Entwurf, zur Implementierung, zum Test und zur Zusammenarbeit unter Nutzung der neuesten KI-Fortschritte • Integrierte kollaborative Plattformen: Enterprise-grade-Lösungen für in Echtzeit synchronisierte Entwicklungsumgebungen mit eigens für KI/ML-Projekte optimiertem Versionsmanagement • KI-erweiterte Entwicklungsunterstützungssysteme: Tool-Suiten zur erheblichen Steigerung der Produktivität von Technik-Teams durch kontextbezogene intelligente Autovervollständigung, unterstützte Programmgenerierung und automatisiertes Refactoring für Data-Science-Umgebungen • Hochentwickelte Technologien zur Unterstützung selbstgenerierter Dokumentationen, intelligenten Debuggings und algorithmischer Optimierung zur deutlichen Verkürzung der Entwicklungszyklen und zur schnelleren Aufnahme der Produktion', 'Technologielösungen für leichtere Entdeckung, Bewertung und Integration von KI-Modellen bei gleichzeitiger Unterstützung neu entstehender Architekturen auf der Basis autonomer Agenten • Einheitliche Plattformen für den Zugriff auf Modelle: zentralisierte Umgebungen für strukturierte Kataloge von vortrainierten Modellen mit standardisierten Interfaces und Kompatibilität mit mehreren Anbietern zur Abstraktion der zugrunde liegenden Zugriffsschichten • Rechen- und energieeffiziente Modellarchitekturen: optimierte Implementierungen mit geringem Energie- und Rechenaufwand, konzipiert für ressourcenbeschränkte Einsätze und Edge-Computing-Anwendungen • Bach Bereich und Modalität vertikalisierte Ökosysteme: Sammlungen von Modellen, speziell zugeschnitten auf die vorrangigen Geschäftsvertikalen (insbesondere audiovisuelle Medien), die das gesamte Modalspektrum (Text, Bild, Audio, Multimodal) abdecken • Erweiterte Frameworks zur Orchestrierung von Modellen: automatisierte Entscheidungssysteme, die imstande sind, Modelle gemäß parametrisierbarer Einschränkungen hinsichtlich Latenz, Kosten, Genauigkeit und Anwendungskontext dynamisch zu routen oder zusammenzustellen • Agentic Architektur Tool-Suiten, mit deren Hilfe die Technik-Teams zur Verknüpfung von prädiktiven Modellen und externen Diensten in hochautomatisierten End-to-End-Workflows autonome oder halbautonome LLM-Agenten entwerfen, parametrisieren und überwachen (Fähigkeit zur Planung, Ausführung von Drittanbieter-Tools und sequenzielles Denken)', 'Integrierte technische Lösungen für das komplette Lifecycle-Management von KI-Modellen – von der Entwicklung bis hin zur Produktion • Einsatzmöglichkeiten für mehrere Umgebungen: Plattformen zur Gewährleistung eines kohärenten und reibungslosen Einsatzes von Modellartefakten über heterogene Umgebungen hinweg (öffentliche/private Cloud, Edge Computing, On-Premise-Infrastrukturen), mit erweiterter Versionsverwaltung und der Möglichkeit eines sofortigen Rollbacks • Intelligentes Autoscaling und dynamische Ressourcenoptimierung: hochentwickelte Systeme zur automatischen Anpassung der IT-Infrastruktur an wechselnde Belastungen mit optimaler Übertragungsrate bei gleichzeitiger Kosteneffizienz • Auf KI spezialisierte CI/CD-Pipelines: End-to-End-Orchestrierung vom Training bis hin zum kontrollierten Einsatz, einschließlich automatisierter Tests, auf die Besonderheiten von prädiktiven Modellen zugeschnittene multidimensionale Validierungen und kontinuierliche Bereitstellung • Infrastruktur für Lifecycle-Management und -Sicherheit: IT-Systeme zum progressiven Einsatz (canary, blue-green), automatisierter Rollback zur Erkennung von Anomalien, granularen Zugriffskontrollen und Echtzeitmonitoring zur Risikominderung und Einhaltung gesetzlicher Vorschriften', 'Hochentwickelte Lösungen für Datenstrukturierung und semantische Suche innerhalb von KI-Architekturen • Semantische und vektorbasierte Datenplattformen: semantische und vektorbasierte Suchmaschinen mit Clustering-, Embedding- und multimodalen Retrieval-Features für mediale bzw. redaktionelle Zwecke • Spezialisierte Datenbankinfrastrukturen: hochverfügbare, ausfallsichere sowie für komplexe analytische Workloads bzw. verteilte Vektoralgebra optimierte, gemanagte oder einbettbare Speicherlösungen (SQL, NoSQL, Vektor, Graph) • Datenaufnahme und Transformation: Automatisierungsframeworks zur Erfassung, Transformation und Indexierung von Daten aus mehreren Quellen und in mehreren Formaten, mit vollständigen Pipelines zur semantischen Anreicherung bzw. zur modalitätsübergreifenden Vektorisierung (Text, Bild, Audio, Video) • Kontextuelle Dokumentenzugriffssysteme: Lösungen für einen genauen Abruf von Dokumenten durch erweitertes Kontextverständnis, Intent-aware-Analyse bei gleichzeitigem Erhalt der semantischen Verknüpfungen zwischen Entitäten • Vertikalisierte RAG-Architekturen: spezifische RAG-Frameworks mit kontinuierlichen Lernkapazitäten, inkrementellen Aktualisierungen ohne vollständige Neuindizierung, sowie mit hochentwickelten Speicherverwaltungsstrategien', 'Lösungen zum Monitoring, zur Steuerung, zur Leistungsoptimierung und zur Zuverlässigkeit der KI-Modelle in Produktionsumgebungen • Plattformen für Observability und erweitertes Monitoring: Integrierte Lösungen mit Echtzeit-Dashboards und konfigurierbaren Warnmeldungen zur kontinuierlichen Überwachung von Nutzungs- und Leistungsmetriken mit Anomalieerkennung und prädiktiver Analyse von Modellverhaltensabweichungen • Infrastrukturen für systematische Bewertung und Benchmarking: Spezialisierte Frameworks zur kontinuierlichen Bewertung prädiktiver Modelle bzw. von RAG-Systemen anhand spezifischer fachlicher Kriterien für automatisiertes Benchmarking für Vorgängerversionen und Industriestandards • Mechanismen zur Qualitätssicherung und zur Eindämmung von Halluzinationen: Techniken zur proaktiven Identifizierung und Eindämmung von Halluzinationen, zur Verbesserung der faktischen Kohärenz und zur Validierung der Qualität von nach mehreren Parametern generierten Inhalten • Vorkehrungen zur Einhaltung gesetzlicher Vorschriften und zur technischen Governance: automatisierte Plattformen zur Bewertung und Zertifizierung der Einhaltung von Vorschriften (DSGVO, KI-Verordnung) und zur Einhaltung von Prüfbarkeitsstandards bei algorithmischer Erklärbarkeit, sicherer Protokollierung sowie granularer Rückverfolgbarkeit von Zugriffen und Interaktionen', 'Lösungen zur Optimierung von Trainingsprozessen, Fine-Tuning und der Verwaltung von Lernkorpora • Integrierte Plattformen für überwachtes Fine-Tuning: spezialisierte Umgebungen zur Anpassung von Foundationmodellen an gezielte Anwendungsfälle bei gleichzeitiger Optimierung der benötigten Datenmengen Umfassende Unterstützung für überwachtes Lernen, Instruktions-Tuning und RLHF (Reinforcement Learning from Human Feedback) • End-to-End-Automatisierung von Trainingspipelines: vollständige Orchestrierung des Trainingszyklus‘ mit erweiterter Automatisierung der Einstellung von Hyperparametern, verteilter Parallelisierung und reproduzierbaren Testumgebungen • Zentrale Verwaltung von Trainingskorpora: einheitliche Plattformen zur Erfassung, zur kollaborativen Annotation sowie zur semantischen Anreicherung von Datensätzen einschließlich Qualitätssicherung und Rückverfolgbarkeit • Optimierung der Rechenleistung und -effizienz: Lösungen zur Reduzierung des CO2-Fußabdrucks sowie der Trainingskosten durch LoRA, QLoRA, Quantisierung und Pruning, wobei die prädiktive Leistung der Modelle erhalten bleibt • Strategien zur Anreicherung von Daten: Systematische Methoden zur Anreicherung oder Diversifizierung von Trainingsdatensätzen zur Verbesserung der Robustheit und Generalisierbarkeit von Modellen bei geringen Zusatzkosten • Kontinuierliche Bewertung und Monitoring von Modellen: Integration von Leistungs- und Driftmetriken mit Echtzeit-Dashboards zur Sicherung von Qualität, Zuverlässigkeit und Konformität während des gesamten Modell-Lifecycles', 'Hochentwickelte Lösungen zur automatisierten Verarbeitung, intelligenten Annotation und KI-gestützten Generierung multimodaler Inhalte und angereicherter Metadaten • Automatische Stimmerkennung und Untertitelung: hochpräzise ASR-Systeme (Automatic Speech Recognition) für Spezialbereiche sowie eine Vielzahl von Akzenten mit multilingualer Alignment-Technologie zur Bild-für-Bild-Synchronisierung von Transkriptionen mit Audio-/Videostreams • Maschinelle Übersetzung und Lokalisierung: anpassbare maschinelle Übersetzung für Untertitel, Transkripte bzw. Metadaten mit integrierter Glossarverwaltung, Anpassung an bestimmte Fachgebiete sowie Metriken zur Qualitätsbewertung • Softwaresuite für Postproduktion bzw. redaktionelle Workflows: Moderne Untertitel-Editoren mit automatischer Sprecherzuordnung, stilistischer Vereinheitlichung und Timing-Management; hybride Ansätze aus automatisierter Verarbeitung und gezielter manueller Nachbearbeitung • Extraktion und Anreicherung multimodaler Metadaten: auf die semantische Identifizierung und Klassifizierung von Schlüsselelementen (Personen, Objekte, Orte, Handlungen, Themen) in Medieninhalten sowie die Erzeugung von auf branchenüblichen Metadaten spezialisierte KI-Frameworks • Kollaborative Video-Annotation-Tools: kollaborative Arbeitsumgebungen zur Unterstützung halbüberwachter Annotation von audiovisuellen Inhalten mit KI-gestützter Segmentierung, Objektverfolgung sowie kontextbezogener Erkennung visueller Elemente'], 'eng': ['• Define and supervise data architectures and data models. • Collaborate with technical teams to ensure architectural consistency. • Evaluate and select technologies and tools for data architectures, including Azure Data Factory or equivalent. • Establish data management best practices. • Resolve technical issues related to data architecture.', '• Develop scalable, high-performance infrastructures for large data volumes. • Manage data ingestion, transformation, and distribution. • Build and harden connectors to third-party services (Middleware, APIs). • Proactively detect and remediate vulnerabilities (penetration testing, security audits, threat monitoring). • Guarantee compliance with data-protection regulations (GDPR and related standards) throughout the data-lifecycle. • Implement advanced protection methods (encryption, anonymization, IAM) • Strengthen architectures to prevent cyber-attacks and ensure compliance with applicable regulations. • Produce, structure, and update technical documentation to facilitate effective knowledge transfer.', '• Collect, organize and ensure data quality in close collaboration with editorial, technical and legal teams. • Analyze performance through key metrics (KPIs) and recommend improvements. • Design and automate dashboards and reports. • Communicate analytical insights clearly to non-technical stakeholders. • Monitor analytics workflows for compliance and reliability. • Guarantee compliance with data-protection regulations (GDPR, privacy-by-design/default) across all analytics workflows. • Produce, structure and update technical documentation to facilitate effective knowledge transfer. • Use available BI and data-visualisation tools to create reports and dashboards for internal stakeholders. • Deliver study reports and strategic recommendation documents (tagging, segmentation, marketing attribution, scoring, data-quality assessments, journey analysis, etc.).', '• Comprehensive experience in data lifecycle management and governance tools. • Generate or enrich synthetic datasets for test phases or to compensate data gaps. • Annotate and classify multimodal assets — text, image, audio, video — to train AI models and enrich knowledge bases. • Guarantee compliance with data-protection and AI-related regulations (GDPR, AI Act) across the entire data-lifecycle. • Conduct audits and continuous monitoring of data quality and security. • Monitor lineage and metadata to ensure transparency and traceability.', '• Analyze and exploit structured and unstructured data to develop predictive, descriptive and prescriptive models. • Create and optimize AI algorithms tailored to business needs (recommendation, classification, segmentation, generation, multimodal analysis). • Collaborate with technical and business teams to integrate innovative approaches that combine multiple AI techniques. • Industrialize AI solutions as high-performance, scalable and maintainable services and APIs. • Guarantee compliance with data-protection and AI-related regulations (GDPR, AI Act) and embed fairness, explainability and ethical-AI principles throughout the model lifecycle. • Monitor model performance, drift and data quality in production; iteratively retrain and update models as required.', '• Select, adapt and fine-tune state-of-the-art open-source models (vision, audio, speech, text) for ARTE-specific, video-focused use-cases. • Design advanced interaction and optimization strategies — prompt-engineering, retrieval-augmented generation, LoRA/distillation, quantization, pruning — to maximize accuracy, latency and editorial relevance. • Build end-to-end multimodal pipelines that fuse video, audio, images, animations and text to enrich metadata, boost searchability and automate newsroom/production workflows. • Evaluate, compare and continuously improve AI systems against both technical and business-oriented KPIs. • Develop multimodal solutions that combine diverse data sources and modalities to extend model capabilities. • Provide and maintain the technical infrastructure required for deployment, monitoring and optimization of models in production (GPU/TPU clusters, inference gateways, scaling policies). • Integrate AI services into existing media systems (MAM/PAM, NRCS, transcription chains, asset-delivery pipelines, Information System) in close collaboration with product owners and tech leads. • Curate, annotate and quality-control audiovisual datasets, ensuring alignment with editorial, cultural and ethical standards. • Monitor, evaluate and continuously improve models in real-world conditions (accuracy, fairness, explainability, cultural relevance, energy footprint). • Collaborate with cross-functional technical and business teams to align AI solutions with strategic objectives and regulatory constraints (GDPR, AI Act). • Produce, structure and update technical documentation to ensure efficient knowledge transfer.', '• Design intuitive user interfaces for AI tools and analytical dashboards, maximizing the value of predictive and generative models. • Create advanced data-visualization systems that turn multidimensional information into clear, actionable insights. • Develop sophisticated human-machine interactions to improve accessibility and understanding of AI models (prompting, feedback loops, explanation of results). • Run targeted usability tests to evaluate user understanding, trust and overall experience with AI-based systems. • Define and apply ethical design principles that ensure transparency, explainability and responsible use of AI. • Guarantee compliance with accessibility standards (WCAG / RGAA) and data-protection regulations (GDPR, AI Act) throughout the design process. • Produce, structure and update design documentation (design-system guidelines, interaction patterns, user-research reports) to support efficient collaboration and knowledge transfer.', '• Provide strategic consulting at the intersection of AI, data and media-specific workflows (newsroom, content production, post-production). • Translate editorial, journalistic and production needs into data-driven, AI-enabled solutions. • Identify and prioritize high-value use-cases (storytelling support, newsroom-workflow optimization, production-planning, metadata enrichment, cost tracking, etc.). • Shape long-term AI and data strategies aligned with editorial, newsroom and production objectives in a public-service media context. • Advise on organizational readiness, change-management and capability-building for sustainable AI adoption. • Evaluate AI impact on journalistic processes, editorial values and public-service missions; define success KPIs and ROI metrics. • Guide AI integration into planning tools, editing workflows, archive systems, MAM/PAM and NRCS platforms. • Ensure alignment with ethical and regulatory standards (AI Act, GDPR, copyright, editorial responsibility, diversity & inclusion). • Produce, structure and update strategy documents, roadmaps and best-practice guidelines to facilitate effective knowledge transfer', '• Assess the performance, quality and regulatory compliance of AI- and data-driven systems across ARTE’s domains (production, newsroom, distribution, support). • Benchmark proprietary solutions against open-source and SaaS alternatives, highlighting technical, economic and environmental trade-offs. • Deliver actionable recommendations to optimize cost, carbon footprint, scalability, security and maintainability. • Identify and quantify project risks (security, compliance, ethics, editorial integrity, copyright) and propose mitigation plans. • Guide end-to-end alignment with relevant regulations and standards (AI Act, GDPR, copyright law, accessibility, public-service obligations). • Provide strategic and technological watch to surface emerging opportunities and threats in AI, data and media innovation. • Strengthen in-house capabilities through workshops, training sessions and structured knowledge-transfer programs. • Co-create roadmaps and governance frameworks that steer AI & data adoption, ensuring change-management and stakeholder buy-in. • Produce, structure and update audit reports, maturity assessments and decision dashboards to support transparent, data-informed governance.', '• Analyze and translate business needs into functional specifications for data- and AI-driven solutions. • Build and steer product roadmaps aligned with ARTE’s innovation strategy and public-service mandate. • Identify, assess and prioritize innovation opportunities across the data, AI and emerging-technology ecosystem. • Orchestrate collaboration among internal stakeholders and external partners to maximize value creation and mitigate risks. • Promote and evangelize data- and AI-powered initiatives to internal and external audiences (demos, showcases, success stories). • Guide organizational transformation and change-management to accelerate the adoption of data-centric solutions. • Guarantee alignment with interoperability standards and applicable regulations (GDPR, AI Act, copyright). • Produce, structure and update product artefacts and project documentation (backlogs, OKRs, risk registers, lessons learned) to support transparent governance.', '• Craft and maintain a comprehensive open-source strategy tailored to ARTE’s mission, technical landscape and regulatory context. • Define governance models for OSS engagement (contribution workflows, licensing choices, risk assessment, release policies). • Provide legal and organizational guidance on licenses (MIT, GPL, AGPL, Creative Commons), contributor agreements and AI-specific edge cases (model weights, datasets, prompts). • Design sustainable processes for managing and publishing OSS projects (documentation, versioning, security disclosures, project-health metrics). • Establish community-management practices—communication channels, onboarding paths, moderation guidelines and external visibility. • Advise on strategic partnerships with OSS foundations, public broadcasters, research consortia and EU initiatives. • Monitor legal, technological and community trends to anticipate impacts on ARTE’s AI & data ecosystem and ensure continuous regulatory compliance (AI Act, GDPR). • Produce, structure and update policy documents, strategy decks and training materials to facilitate organization-wide adoption and knowledge transfer.', 'Given the rapid developments in artificial intelligence, this category seeks partners capable of providing high-performance, scalable, and cost-efficient infrastructures specifically designed for AI model training and inference. We aim to collaborate with providers meeting the following criteria: • Flexibility & Availability: Agile provisioning of optimized clusters and virtual machines, capable of supporting both continuous inference and on-demand training workloads, efficiently handling complex data pipelines. • Sovereignty & Compliance: Hosting solutions that guarantee complete data localization within the European territory without exception, compliance with applicable regulations (GDPR, Digital Services Act, AI Act), and technological independence from non-European jurisdictions. • Ease of Use & Integration: Ability to simplify the implementation of tests, benchmarks, and proof-of-concept (PoC) activities, accelerating the workflow of technical teams and AI researchers. • Optimized Cost-Performance Ratio: Competitive offerings that provide a superior cost-performance balance compared to traditional hyperscale providers, transparent pricing models, and the ability to optimize costs based on actual usage. • Compatibility with advanced accelerators: Access to specialized hardware architectures, including state-of-the-art GPUs (NVIDIA A100, H100, Blackwell), TPUs, and processors specifically optimized for high-performance AI workloads. • Managed services: Options for fully managed services covering infrastructure maintenance, regular updates, performance optimization, security monitoring, and specialized AI technical support. • Energy & Environmental Efficiency: Commitment to energy-efficient hardware solutions, carbon-footprint reduction, and transparency on sustainability measures Services and tools The following categories cover ready-to-use solutions, available as on-premises licenses or SaaS, easily integrable into existing systems, workflows, or more comprehensive applications.', 'Solutions enabling technical teams to develop, test and collaborate efficiently using the latest advances in AI. • Collaborative platforms: Integrated solutions providing real-time shared coding environments with version control tailored to AI projects. • AI-powered coding assistance: Tools that boost developer productivity through intelligent autocompletion and context-aware code generation for data science. • Technologies supporting documentation, debugging and optimization to significantly reduce development time.', 'Solutions that simplify the discovery, selection and integration of AI models while enabling emerging agent-style workflows. • Unified model-access platforms: Centralized environments offering catalogues of pretrained models with standardized, multi-vendor interfaces. • Frugal and optimized models: Lightweight, energy- and compute-efficient alternatives for resource-constrained deployments. • Domain- & modality-specific ecosystems: Curated collections of models tailored to dedicated verticals (e.g. media) and modalities (text, vision, audio, multimodal). • Model orchestration frameworks: Intelligent systems that dynamically route or compose models according to latency, cost and accuracy constraints. • Agentic capabilities: Toolkits that let teams build, configure and monitor autonomous or semi-autonomous LLM agents (planning, tool-calling, multi-step reasoning) to chain models and external services into end-to-end workflows.', 'Solutions to manage the full AI model lifecycle—from development to production. • Multi-environment deployment: Platforms enabling seamless deployment of AI models across cloud, edge, and on-premises environments, with integrated versioning and rollback support. • Autoscaling & resource optimization: Tools that automatically scale infrastructure based on workload fluctuations, and balance traffic to maximize throughput while minimizing costs. • CI/CD pipeline automation: End-to-end orchestration of the training-to-deployment process, including automated testing, validation, and continuous delivery. • Lifecycle governance & security: Systems supporting progressive deployment, automatic rollback, granular access control, and real-time monitoring to reduce risks and ensure compliance', 'Solutions for intelligent data handling and semantic search in AI systems. • Semantic & vector data platforms: Engines combining semantic and vector search capabilities at scale, with clustering and hybrid-retrieval features suited for various use cases. • Specialized database infrastructure: Managed or embeddable database solutions (SQL, NoSQL, vector, graph) with high availability and optimized for complex queries and large-scale vector operations. • Data ingestion & transformation: Tools to automate the acquisition, transformation, and indexing of multi-source, multi-format data. Includes pipelines for semantic enrichment and vectorization across text, image, audio, and video. • Contextual document access: Solutions enabling precise document retrieval with contextual understanding and intent-aware analysis, preserving relationships between elements. • Specialized RAG architecture: Domain-specific RAG frameworks with continuous-learning capabilities, incremental updates without full reindexing, and freshness-preserving memory management', 'Solutions to monitor, steer, and improve the performance and reliability of AI models in production. • Model observability & monitoring: Platforms providing real-time dashboards and alerts for key usage and performance metrics, anomaly detection, and behavioral drift analysis. • Evaluation & benchmarking tools: Frameworks for continuous evaluation of models and RAG systems using domain-relevant criteria and automatic benchmarking against previous versions and industry baselines. • Quality assurance & hallucination mitigation: Tools to identify and reduce hallucinations, improve factual consistency, and validate output quality. • Regulatory compliance & governance: Automated solutions for verifying alignment with GDPR, AI Act and audit requirements, including explainability, logging and access traceability.', 'Advanced solutions to optimize model training, fine-tuning, and dataset management . • Supervised fine-tuning platforms: Environments for adapting pretrained models to specific use cases with minimal training data. Support for supervised learning, instruction tuning, and reinforcement learning from human feedback (RLHF). • Training pipeline automation: Tools that orchestrate the entire training process, automating hyperparameter tuning, parallelization, and experimentation. • Training dataset management: Centralized platforms for collecting, collaboratively annotating, and enriching training datasets, with integrated quality control. • Performance & efficiency optimization: Solutions to reduce resource consumption and training costs using techniques like LoRA, QLoRA, quantization, and pruning—while maintaining high model performance. • Data-augmentation strategies: Systematic methodologies to enrich or diversify training datasets, improving model robustness and generalization at marginal cost. • Continuous evaluation and model monitoring: integration of performance and drift metrics, with real-time dashboards to guarantee quality, reliability and compliance throughout the model life-cycle.', 'Solutions for automated processing, annotation, translation, and generation of multimodal content and metadata. • Speech recognition & subtitling: High-accuracy speech recognition systems for diverse domains and accents. Multilingual alignment technologies to synchronize transcripts with audio/video. • Machine translation & localization: Customizable MT engines (subtitles, transcripts, metadata) that support glossary management, domain adaptation and quality-assessment metrics. • Post-production & editing tools: Advanced subtitle editing tools with automated speaker detection and style adjustment. Intelligent automation combined with granular editorial control. • Multimodal metadata extraction: AI systems that detect and classify key elements (people, objects, locations, actions, themes) in multimedia content and generate structured metadata. • Video content annotation: Collaborative platforms supporting semi-automated annotation of video content, with AI-assisted segmentation, tracking, and object recognition features.']} Platforma: TED (Tenders Electronic Daily) - Unia Europejska

Dokumenty przetargu

Dostępne dokumenty:

Brak dokumentów do wyświetlenia

Mapa podobieństw
Szczegóły techniczne

Kategoria

Nie określono

Źródło

TED

currency

EUR

cpv codes

  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000
  • 72000000

form type

competition

buyer name

ARTE G.E.I.E.

archived at

2026-02-15T08:39:13.673495

notice type

cn-standard

buyer country

FRA

deadline used

2025-07-15T23:59:59

archive reason

Termin składania ofert już minął: 2025-07-15 23:59:59

estimated value

Nie określono

publication date

2025-06-13+02:00

publication number

381586-2025

notice title all languages

bul: Фpaнция – ИТ услуги: консултации, разработване на софтуер, Интернет и поддръжка – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

ces: Francie – Informační technologie: poradenství, vývoj programového vybavení, internet a podpora – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

dan: Frankrig – It-tjenester: rådgivning, programmeludvikling, internet og support – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

deu: Frankreich – IT-Dienste: Beratung, Software-Entwicklung, Internet und Hilfestellung – Dynamic purchasing system - Artificial Intelligence and Data Management Services and Supplies

ell: Γαλλία – Υπηρεσίες τεχνολογίας των πληροφοριών: παροχή συμβουλών, ανάπτυξη λογισμικού, Διαδίκτυο και υποστήριξη – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

eng: France – IT services: consulting, software development, Internet and support – Dynamisches beschaffungssystem - Dienstleistungen und Lieferungen im Bereich künstliche Intelligenz und Datenmanagement

est: Prantsusmaa – IT-teenused: nõuande-, tarkvaraarendus-, Interneti- ja tugiteenused – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

fin: Ranska – Tietotekniset palvelut: neuvonta, ohjelmistojen kehittäminen, Internet ja tuki – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

fra: France – Services de technologies de l'information, conseil, développement de logiciels, internet et appui – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

gle: An Fhrainc – IT services: consulting, software development, Internet and support – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

hrv: Francuska – Usluge informacijske tehnologije: savjetovanje, razvoj programske podrške, internet i podrška – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

hun: Franciaország – IT-szolgáltatások: tanácsadás, szoftverfejlesztés, internet és támogatás – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

ita: Francia – Servizi informatici: consulenza, sviluppo di software, Internet e supporto – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

lav: Francija – IT pakalpojumi konsultēšana, programmatūras izstrāde, internets un atbalsts – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

lit: Prancūzija – IT paslaugos: konsultavimas, programinės įrangos kūrimas, internetas ir aptarnavimo paslaugos – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

mlt: Franza – Servizzi ta' IT: konsulenza, żvilupp ta' softwer, Internet u appoġġ – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

nld: Frankrijk – IT-diensten: adviezen, softwareontwikkeling, internet en ondersteuning – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

pol: Francja – Usługi informatyczne: konsultacyjne, opracowywania oprogramowania, internetowe i wsparcia – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

por: França – Serviços de TI: consultoria, desenvolvimento de software, Internet e apoio – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

ron: Franţa – Servicii IT: consultanţă, dezvoltare de software, internet şi asistenţă – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

slk: Francúzsko – Služby informačných technológií: konzultácie, vývoj softvéru, internet a podpora – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

slv: Francija – Storitve informacijske tehnologije: svetovanje, razvoj programske opreme, internet in podpora – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

spa: Francia – Servicios TI: consultoría, desarrollo de software, Internet y apoyo – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

swe: Frankrike – IT-tjänster: konsultverksamhet, programvaruutveckling, Internet och stöd – Système d'acquisition dynamique - Prestations de services et fournitures en matière d’intelligence artificielle et de gestion de la donnée

deadline receipt request dt

  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00
  • 2025-07-15T12:00:00+02:00

deadline receipt tender date

  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00
  • 2025-07-15+02:00

deadline receipt tender time

  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00
  • 12:00:00+02:00

deadline additional info date

Nie określono

deadline additional info time

Nie określono

deadline receipt request date

Nie określono

deadline receipt request time

Nie określono

deadline receipt expressions date

Nie określono

deadline receipt expressions time

Nie określono
Informacje kluczowe

Termin składania

15 lipca 2025

Lokalizacja

Nie określono

Informacje o firmie

Nazwa firmy

Daty

Utworzono

13 czerwca 2025

Zaktualizowano

15 lutego 2026