New RAMP for classifying pollinating insects

In collaboration with IESF and MNHN Spipoll, we are organizing a third computer vision challenge for classifying pollinating insects. This time we got into the thin tail: we have 70K images and 403 classes, a lot of them with less than 10 examples per class.
Pre-registration is open at http://bee-o-diversity-challenge.strikingly.com. This is also the first RAMP with money prize. Prize ceremony will be held at the Journées National de l’Ingénieur 2017.

Défi de Machine Learning pour cartographier les différentes populations d’insectes pollinisateurs.

Spipoll, une plateforme de sciences collaborative

Suivi Photographique des Insectes POLLinisateurs est une initiative du Muséum National d’Histoire Naturelle.

Spipoll est aussi un réseau de bénévoles qui assurent le suivi de centaines d’espèces de pollinisateurs en prenant des photos sur le terrain. L’objectif de ce défi est de créer un outil qui les aide à étiquetter ces photos plus facilement, plus rapidement et plus précisément.

Un défi technique

Pour entraîner vos modèles, vous disposez de 70000 images et de l’espèce associée à chacune d’elles. Il existe environ 400 espèces dans la base de données, et la plupart d’elles possèdent moins de 100 photos. Ainsi, des méthodes issues de l’adaptation de domaine, du transfert learning ou du one-shot learning peuvent vous permettre de monter dans le classement!

Plateforme de la compétition

Le challenge se déroulera sur la plateforme RAMP du Center For DataScience de Paris Saclay. Si vous ne connaissez pas le concept de RAMP, vous pouvez trouver une description ici et une vidéo ici qui en expliquent le fonctionnement.

Dates clés:

  • 18 Septembre: début de la compétition

  •  11 Octobre: fin de la phase fermée de la compétition et ouverture de la phase collaborative
  •  18 Octobre: fin de la phase collaborative
  • 19 Octobre: remise des prix lors de la grande conférence des Journées nationales de l’ingénieur à l’UNESCO.

Evaluation:

Deux métriques d’évaluation seront utilisées:

  1.  La précision moyenne obtenue sur l’ensemble de test
  2.  Le nombre de classes pour lesquelles le modèle obtient un score F1 supérieur à 70%.

PRIX:

L’équivalent de 5000 € à se répartir entre les modèles selon les critères suivants:

  1. les trois finalistes en précision,
  2. le/la finaliste en score F1,
  3. le meilleur modèle en terme de précision contre temps de calcul
  4. le meilleur modèle de la phase collaborative

     

Comments are closed