Annales de géographie n° 715 (3/2017)
Pour acheter ce numéro, contactez-nous
Recevez les numéros de l'année en cours et accédez à l'intégralité des articles en ligne.
Depuis les années 1990, les outils cartographiques et de diagnostic de vulnérabilité face aux différents aléas se sont multipliés. Pour répondre aux exigences de l’administration en matière de prévention et de gestion des risques, ce sont surtout des méthodes quantitatives, définissant des scores de vulnérabilité, des dommages potentiels ou s’inscrivant dans des démarches coûts/avantages. Ces instruments sont construits comme des outils de diagnostic a priori, avant les crises ou les catastrophes. Mais ils ne sont ensuite pas confrontés à l’épreuve des faits, a posteriori, aux retours d’expérience. À l’inverse, des méthodes qualitatives et empiriques sont utilisées après les crises et les catastrophes pour en analyser les processus, les modalités de diffusion et dégager les spécificités locales, mais sans parvenir à faire monter le bilan en généralité pour le rendre transposable à d’autres territoires. Il existe donc un important décalage entre ces deux approches dans le choix des données, des critères, des facteurs de vulnérabilité à prendre en compte. Ce décalage est un obstacle majeur à la consolidation des outils d’analyse de la vulnérabilité des territoires. Les outils cartographiques et de diagnostic tendent à mobiliser un même faisceau d’indicateurs ou de critères, en le transposant d’un territoire à un autre sans tenir compte de la diversité des territoires ni des effets d’échelle. De même, ils ont tendance à se focaliser sur un instantané, sans considérer que dans le déroulement de la crise, les individus, groupes sociaux et territoires les plus vulnérables ne sont pas toujours les mêmes. Ces problèmes sont discutés dans le cas de la vulnérabilité aux inondations en confrontant les approches qualitatives, quantitatives, anglophones et francophones dans la perspective d’assurer la robustesse des outils.
Since the 90’s, vulnerability indices have emerged as a leading tool to quantify and map the dimensions of hazards vulnerability. However, this quantitative approach is criticized for giving only a rather general overview of the situation, without rendering the complexity of the phenomena involved or the local context, because they are not always adapted to the changes in scale and seem dependent on the initial choice of variables. Moreover, the typical rationale for decisions regarding variable selection, analysis scale or method is based on simplicity or choices made in previous studies, and in many cases, no justification is provided at all. Furthermore, these quantitative approaches are almost never confronted to feedback and historical data for validation. On the other hand, empirical and qualitative approaches are useful for conducting ex post analyses, but it is not easy to make them operational: they seem to condemn us to wait for disasters to happen in order to advance the science. Hence, the literature presents a bifurcation between qualitative and quantitative approaches to vulnerability. This apparent disconnection between the two pictures given ex ante by quantitative approaches and ex post by qualitative approaches is a major scientific challenge. It is a problem when it comes to the definition of target populations and places for the different programs and to guide international action. Mapping and diagnostic tools tend to mobilize the same indicators or criteria beam, by transposing it from one territory to another regardless of the diversity of territories or scale effects. Also, they tend to focus on a likely snapshot, without considering that the most vulnerable individuals, social groups and place are not always the same during the unfolding of the crisis. These issues are discussed in the case of the vulnerability to floods, confronting qualitative, quantitative, French and Anglo approaches in order to enhance the robustness of methods.