Le modèle multi-couches décrit une séquence vidéo comme la projection d'une
scène 3d composée d'objets opaques, situés à différentes profondeurs. Le fond
de la séquence est alors la couche d'arrière-plan, et les objets mobiles sont
projetés dessus, dans l'ordre inverse de leur profondeur. Chaque couche cache
celles situées en-dessous: c'est ce que l'on appelle le phénomène
d'occultation.
Selon ce modèle, les objets en mouvement correspondent aux zones où le fond
est occulté. Cette modélisation nous a amené à développer un algorithme
temps-réel de segmentation des objets en mouvement. En supposant le fond
connu et la caméra fixe, nous comparons l'image venant du flux vidéo et ce
fond, mais nous remplaçons les méthodes classiques de détection de changement
par une détection des zones où le fond est occulté. De plus, nous utilisons
la détection a contrario pour modéliser les objets mobiles comme les
groupements significatifs de changements.
L'autre problématique de ce modèle est la reconstruction des couches à partir
de la séquence, avec en particulier la reconstruction des parties cachées.
Nous proposons un modèle de déformation de la projection de l'objet sur
l'image, valable sous certaines hypothèses sur le mouvement de l'objet. Puis
nous proposons une méthode variationnelle, permettant d'extraire de la
séquence les couches des objets mobiles, même si ceux-ci sont cachés sur
plusieurs images.
Plus d'info