Apprentissage machine

Les apps iOS peuvent reconnaître les images à l’aide d’IBM Watson

Avec Watson Services for Core ML, les développeurs sur iOS peuvent utiliser et personnaliser les capacités de machine learning d’IBM Watson.

Les applications d’entreprises pour iPhone et iPad peuvent tirer profit de façon personnalisée des capacités de machine learning d’IBM Watson. (Source : Apple/IBM)
Les applications d’entreprises pour iPhone et iPad peuvent tirer profit de façon personnalisée des capacités de machine learning d’IBM Watson. (Source : Apple/IBM)

Apple et IBM poursuivent leur collaboration en couplant leurs technologies de machine learning. Avec Watson Services for Core ML, les deux fournisseurs permettent maintenant aux développeurs pour iOS de faire appel à des modèles d’apprentissage machine créés avec IBM Watson. L’intégration passe par Core ML, le framework de machine learning introduit par Apple avec iOS 11. Les applications d’entreprises pour iPhone et iPad peuvent ainsi profiter des capacités cognitives de l’intelligence artificielle de Big Blue, dont la reconnaissance d’images via les services Watson Visual Recognition.

Via le framework Core ML d’Apple, les développeurs peuvent commencer par puiser dans des modèles de machine learning préconçus issus de Watson. Par exemple pour intégrer dans leurs apps iOS des fonctionnalités d’analyse d’images identifiant des scènes, des objets, des visages, des couleurs, de la nourriture et d’autres types de contenu. Les possibilités offertes par Watson ne s’arrêtent pas là puisque les développeurs iOS ont aussi l’opportunité de mettre au point leurs propres modèles répondant aux besoins de leur entreprise. Des modèles personnalisés qu’ils peuvent tester et entraîner avec le service Watson Visual Recognition, puis le déployer au sein de Core ML. Les modèles ainsi créés bénéficient aussi d’une amélioration constante en fonction de l’activité des utilisateurs.

Webcode
DPF8_85195