{"id":25,"date":"2017-07-18T16:56:20","date_gmt":"2017-07-18T14:56:20","guid":{"rendered":"https:\/\/web.umons.ac.be\/numediart\/?page_id=25"},"modified":"2020-04-05T09:41:38","modified_gmt":"2020-04-05T07:41:38","slug":"expertises-et-thematiques","status":"publish","type":"page","link":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/","title":{"rendered":"Expertises et th\u00e9matiques"},"content":{"rendered":"<p>Les chercheurs de L\u2019institut NUMEDIART concentrent leurs activit\u00e9s sur 5 axes\u00a0: \u00a0la capture de mouvements, les espaces intelligents, la navigation multim\u00e9dia, le traitement de la parole et du son, et la r\u00e9alit\u00e9 virtuelle et augment\u00e9e.\u00a0Au c\u0153ur de ces travaux, on retrouve un m\u00eame objectif\u00a0: mettre au point des syst\u00e8mes intelligents permettant de cr\u00e9er ou d\u2019interagir avec du contenu m\u00e9dia (sons, paroles, textes, images, vid\u00e9os, gestes, 3D, etc.)<\/p>\n<ul>\n<li>\n<h5>Axe 1: La capture de mouvements<\/h5>\n<\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignleft wp-image-272 size-medium\" src=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg\" alt=\"\" width=\"234\" height=\"300\" srcset=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg 234w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-768x986.jpg 768w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-797x1024.jpg 797w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-30x39.jpg 30w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-47x60.jpg 47w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-360x462.jpg 360w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal.jpg 1196w\" sizes=\"auto, (max-width: 234px) 100vw, 234px\" \/>A l\u2019aide de divers capteurs (r\u00e9seaux de cam\u00e9ras IR, cam\u00e9ras 3D, Capteurs IR, capteurs inertiels, tablettes tactiles, etc.), nous mesurons et analysons avec pr\u00e9cision et en temps r\u00e9el les gestes et mouvements humains :<\/p>\n<ul>\n<li>Dans un but de reconnaissance, \u00e9valuation et\/ou de comparaison de mouvements<\/li>\n<li>Pour l\u2019animation de personnages de synth\u00e8se, y compris par des transformations stylistiques.<\/li>\n<li>Pour la synth\u00e8se sonore \u00e0 partir du geste dans le cadre de performances augment\u00e9es, d\u2019instruments augment\u00e9s, ou de nouvelles interfaces d\u2019expression musicale<\/li>\n<\/ul>\n<p>Notre force : explorer, am\u00e9liorer voire cr\u00e9er des solutions commerciales (ou non commerciales) haut de gamme \u00e0 partir de capteurs \u00e0 moindre co\u00fbt.<\/p>\n<p>NUMEDIART est notamment \u00e0 la base de la cr\u00e9ation d\u2019un framework open-source appel\u00e9 \u201cMotionMachine\u201d (<a href=\"http:\/\/www.motionmachine.org\" target=\"_blank\" rel=\"noopener noreferrer\">www.motionmachine.org<\/a>) qui propose des solutions int\u00e9gr\u00e9es et flexibles pour visualiser, repr\u00e9senter et transformer les donn\u00e9es complexes de mouvement.<\/p>\n<p>Cet axe de recherche est en partie financ\u00e9 via le projet DIGISENSE (Portefeuille de projets <a href=\"https:\/\/web.umons.ac.be\/numediart\/fr\/digistorm-feder\/\">DIGISTORM<\/a>)<\/p>\n<ul>\n<li>\n<h5>Axe 2 : Les espaces intelligents<\/h5>\n<\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-273\" src=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/ART-237x300.jpg\" alt=\"\" width=\"237\" height=\"300\" srcset=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/ART-237x300.jpg 237w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/ART-30x38.jpg 30w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/ART-47x60.jpg 47w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/ART-360x455.jpg 360w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/ART.jpg 751w\" sizes=\"auto, (max-width: 237px) 100vw, 237px\" \/>Les \u201cespaces intelligents\u201d sont des espaces dot\u00e9s de senseurs (micros, cam\u00e9ras, capteurs IR, etc.) et d\u2019une intelligence artificielle leur permettant de comprendre ce qu\u2019y font leurs utilisateurs. Dans ce domaine, NUMEDIART propose une expertise dans :<\/p>\n<ul>\n<li>Le \u00ab\u00a0tracking\u00a0\u00bb et l\u2019interaction des personnes \u00e9voluant dans desespaces int\u00e9rieurs<\/li>\n<li>L\u2019analyse de l\u2019attention visuelle des utilisateurs bas\u00e9e sur des syst\u00e8mes non-invasifs<\/li>\n<li>La pr\u00e9diction de l\u2019attention visuelle des utilisateurs sur des images ou des vid\u00e9os, par l\u2019utilisation d\u2019algorithmes d\u2019intelligence artificielle<\/li>\n<\/ul>\n<p>Notre force : d\u00e9velopper des applications (ludiques, m\u00e9dicales, mus\u00e9ales, etc\u2026) capables de pr\u00e9dire et d\u2019analyser l\u2019attention et le degr\u00e9 de motivation de leurs utilisateurs.<\/p>\n<p>NUMEDIART a mis en place un outil d\u2019analyse de l\u2019attention\u00a0(Kinterest)\u00a0bas\u00e9 sur une cam\u00e9ra 3D et permettant de mesurer en temps r\u00e9el sur quel point d\u2019un \u00e9cran des utilisateurs posent leur regard.<\/p>\n<p>Cet axe de recherche est en partie financ\u00e9 via le projet DIGISPACE (Portefeuille de projets <a href=\"https:\/\/web.umons.ac.be\/numediart\/fr\/digistorm-feder\/\">DIGISTORM<\/a>)<\/p>\n<ul>\n<li>\n<h5>Axe 3 : La navigation multim\u00e9dia<\/h5>\n<\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignleft size-medium wp-image-274\" src=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/deepsketch-245x300.jpg\" alt=\"\" width=\"245\" height=\"300\" srcset=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/deepsketch-245x300.jpg 245w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/deepsketch-30x37.jpg 30w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/deepsketch-49x60.jpg 49w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/deepsketch-360x440.jpg 360w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/deepsketch.jpg 751w\" sizes=\"auto, (max-width: 245px) 100vw, 245px\" \/>NUMEDIART dispose d\u2019un savoir-faire dans le domaine de l\u2019analyse et la compr\u00e9hension automatique de contenus m\u00e9dias (qu\u2019il s\u2019agisse aussi bien de son que d\u2019images, de dessins, ou encore de vid\u00e9os ou de gestes) et propose dans ce cadre de interactions homme-machine customis\u00e9es et innovantes, bas\u00e9es sur l\u2019intelligence artificielle.<\/p>\n<p>Notre force\u00a0: nos chercheurs sont capables de cr\u00e9er rapidement des applications cr\u00e9ant des ponts entre plusieurs types de m\u00e9dia.<\/p>\n<p>Cet axe de recherche est en partie financ\u00e9 via le projet DIGIMIR (Portefeuille de projets <a href=\"https:\/\/web.umons.ac.be\/numediart\/fr\/digistorm-feder\/\">DIGISTORM<\/a>)<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<ul>\n<li>\n<h5>Axe 4: les technologies de la parole et du son<\/h5>\n<\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-276\" src=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/handsketch-274x300.jpg\" alt=\"\" width=\"274\" height=\"300\" srcset=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/handsketch-274x300.jpg 274w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/handsketch-30x33.jpg 30w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/handsketch-55x60.jpg 55w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/handsketch-360x394.jpg 360w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/handsketch.jpg 751w\" sizes=\"auto, (max-width: 274px) 100vw, 274px\" \/>NUMEDIART d\u00e9veloppe des algorithmes propri\u00e9taires pour l\u2019analyse, la transformation, la reconnaissance ou la synth\u00e8se de sons (parole, musique, bruits). Notre objectif est de cr\u00e9er des syst\u00e8mes intelligents, qui comprennent le contenu des signaux pour les manipulent de mani\u00e8re optimale.<\/p>\n<p>Notre force\u00a0: nous avons directement contribu\u00e9 au d\u00e9veloppement de l\u2019intelligence artificielle par r\u00e9seaux de neurones profonds (deep neural nets\u00a0: DNN) et sommes en contact avec plusieurs laboratoires de pointe dans le domaine.<\/p>\n<p>Nous avons d\u00e9velopp\u00e9 des solutions pour l\u2019analyse acoustique du jeu de la guitare, la synth\u00e8se vocale et de voix chant\u00e9e, le ralenti audio pour le sport, la reconnaissance vocale, ou encore la synth\u00e8se de signaux affectifs.<\/p>\n<ul>\n<li>\n<h5>Axe 5: La r\u00e9alit\u00e9 virtuelle et la r\u00e9alit\u00e9 augment\u00e9e<\/h5>\n<\/li>\n<\/ul>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignleft size-medium wp-image-277\" src=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-236x300.jpg\" alt=\"\" width=\"236\" height=\"300\" srcset=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-236x300.jpg 236w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-768x976.jpg 768w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-806x1024.jpg 806w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-30x38.jpg 30w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-47x60.jpg 47w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1-360x457.jpg 360w, https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/fabienRV-1.jpg 1280w\" sizes=\"auto, (max-width: 236px) 100vw, 236px\" \/>La r\u00e9alit\u00e9 virtuelle et augment\u00e9e est un domaine en pleine \u00e9bullition, que ce soit pour une exp\u00e9rience individuelle \u00e0 travers un casque, ou pour une exp\u00e9rience collective\u00a0 par projection. Notre activit\u00e9 s\u2019oriente vers plusieurs axes principaux\u00a0:<\/p>\n<ul>\n<li>La projection de contenu multim\u00e9dia\/3D sur des surfaces complexes ou en mouvement, et en interaction avec des utilisateurs<\/li>\n<li>L\u2019utilisation de casques pour la r\u00e9alit\u00e9 augment\u00e9e et virtuelle avec un positionnement optimis\u00e9 des objets virtuels<\/li>\n<li>La compr\u00e9hension automatique d\u2019espaces 3D r\u00e9els pour la cr\u00e9ation rapide d\u2019univers virtuels.<\/li>\n<\/ul>\n<p>Notre force\u00a0: nous disposons de notre propre logiciel de mapping sur des surfaces complexes, ce qui nous permet de le porter sur tout type de machine\u00a0; nous combinons VR\/AR avec la capture de mouvements et pr\u00e9diction de l\u2019attention humaine.<\/p>\n<p>NUMEDIART a mis en place un syst\u00e8me de projection indoor sur les fen\u00eatres de la Facult\u00e9 Polytechnique de Mons (b\u00e2timent \u00ab\u00a0Coll\u00e8ge de Houdain\u00a0\u00bb). Cette installation a d\u00e9j\u00e0 \u00e9t\u00e9 utilis\u00e9e pour plusieurs mappings simples ou interactifs avec les visiteurs. Nous avons \u00e9galement r\u00e9alis\u00e9 un mod\u00e8le 3D de la ville de Mons.<\/p>\n<p><iframe loading=\"lazy\" title=\"Spectacle de l&#039;Insitut Numediart pour les 175 ans de la Facult\u00e9 Polytechnique\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/q55dWl1MTYY?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Les chercheurs de L\u2019institut NUMEDIART concentrent leurs activit\u00e9s sur 5 axes\u00a0: \u00a0la capture de mouvements, les espaces intelligents, la navigation multim\u00e9dia, le traitement de la parole et du son, et la r\u00e9alit\u00e9 virtuelle et augment\u00e9e.\u00a0Au c\u0153ur de ces travaux, on retrouve un m\u00eame objectif\u00a0: mettre au point des syst\u00e8mes intelligents permettant de cr\u00e9er ou d\u2019interagir [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"parent":654,"menu_order":1,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-25","page","type-page","status-publish","hentry"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Expertises et th\u00e9matiques - Institut \/ Num\u00e9diart<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Expertises et th\u00e9matiques - Institut \/ Num\u00e9diart\" \/>\n<meta property=\"og:description\" content=\"Les chercheurs de L\u2019institut NUMEDIART concentrent leurs activit\u00e9s sur 5 axes\u00a0: \u00a0la capture de mouvements, les espaces intelligents, la navigation multim\u00e9dia, le traitement de la parole et du son, et la r\u00e9alit\u00e9 virtuelle et augment\u00e9e.\u00a0Au c\u0153ur de ces travaux, on retrouve un m\u00eame objectif\u00a0: mettre au point des syst\u00e8mes intelligents permettant de cr\u00e9er ou d\u2019interagir [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/\" \/>\n<meta property=\"og:site_name\" content=\"Institut \/ Num\u00e9diart\" \/>\n<meta property=\"article:modified_time\" content=\"2020-04-05T07:41:38+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data1\" content=\"5 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/\",\"url\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/\",\"name\":\"Expertises et th\u00e9matiques - Institut \/ Num\u00e9diart\",\"isPartOf\":{\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg\",\"datePublished\":\"2017-07-18T14:56:20+00:00\",\"dateModified\":\"2020-04-05T07:41:38+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#primaryimage\",\"url\":\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg\",\"contentUrl\":\"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Accueil\",\"item\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Recherche\",\"item\":\"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Expertises et th\u00e9matiques\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/web.umons.ac.be\/numediart\/#website\",\"url\":\"https:\/\/web.umons.ac.be\/numediart\/\",\"name\":\"Institut \/ Num\u00e9diart\",\"description\":\"Un site utilisant Universit\u00e9 de Mons \u2013 UMONS\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/web.umons.ac.be\/numediart\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Expertises et th\u00e9matiques - Institut \/ Num\u00e9diart","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/","og_locale":"fr_FR","og_type":"article","og_title":"Expertises et th\u00e9matiques - Institut \/ Num\u00e9diart","og_description":"Les chercheurs de L\u2019institut NUMEDIART concentrent leurs activit\u00e9s sur 5 axes\u00a0: \u00a0la capture de mouvements, les espaces intelligents, la navigation multim\u00e9dia, le traitement de la parole et du son, et la r\u00e9alit\u00e9 virtuelle et augment\u00e9e.\u00a0Au c\u0153ur de ces travaux, on retrouve un m\u00eame objectif\u00a0: mettre au point des syst\u00e8mes intelligents permettant de cr\u00e9er ou d\u2019interagir [&hellip;]","og_url":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/","og_site_name":"Institut \/ Num\u00e9diart","article_modified_time":"2020-04-05T07:41:38+00:00","og_image":[{"url":"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg","type":"","width":"","height":""}],"twitter_card":"summary_large_image","twitter_misc":{"Dur\u00e9e de lecture estim\u00e9e":"5 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/","url":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/","name":"Expertises et th\u00e9matiques - Institut \/ Num\u00e9diart","isPartOf":{"@id":"https:\/\/web.umons.ac.be\/numediart\/#website"},"primaryImageOfPage":{"@id":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#primaryimage"},"image":{"@id":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#primaryimage"},"thumbnailUrl":"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg","datePublished":"2017-07-18T14:56:20+00:00","dateModified":"2020-04-05T07:41:38+00:00","breadcrumb":{"@id":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#primaryimage","url":"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg","contentUrl":"https:\/\/web.umons.ac.be\/app\/uploads\/sites\/37\/2017\/07\/MOCAPFinal-234x300.jpg"},{"@type":"BreadcrumbList","@id":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/expertises-et-thematiques\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Accueil","item":"https:\/\/web.umons.ac.be\/numediart\/fr\/"},{"@type":"ListItem","position":2,"name":"Recherche","item":"https:\/\/web.umons.ac.be\/numediart\/fr\/recherche\/"},{"@type":"ListItem","position":3,"name":"Expertises et th\u00e9matiques"}]},{"@type":"WebSite","@id":"https:\/\/web.umons.ac.be\/numediart\/#website","url":"https:\/\/web.umons.ac.be\/numediart\/","name":"Institut \/ Num\u00e9diart","description":"Un site utilisant Universit\u00e9 de Mons \u2013 UMONS","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/web.umons.ac.be\/numediart\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"}]}},"lang":"fr","translations":{"fr":25,"en":158},"pll_sync_post":[],"_links":{"self":[{"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/pages\/25","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/comments?post=25"}],"version-history":[{"count":8,"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/pages\/25\/revisions"}],"predecessor-version":[{"id":692,"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/pages\/25\/revisions\/692"}],"up":[{"embeddable":true,"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/pages\/654"}],"wp:attachment":[{"href":"https:\/\/web.umons.ac.be\/numediart\/wp-json\/wp\/v2\/media?parent=25"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}