
Participaron como panelistas de la Sesión:
En su intervención, Roberto González explicó que el puntapie inicial que dio lugar al ejericio fue intentar entender de qué manera el contexto y la geografía estaban influenciando la comisión de los delitos.
Brindó dos sustentos teóricos para enmcarcar la victimización por repetición y la victimización repetida por cercanía: la criminología ambiental y la teoría de las actividades rutinarias. El evento delictivo puede concebirse como la confluencia temporal y espacial de 3 elementos: autor, víctima/target y lugar (micro-espacios). Esto, a su vez, los llevó a delimitar el análisis espacial en pequeñas unidades geográficas. Pusieron foco en los delitos de robo y hurto domiciliarios porque exacerban la percepción de inseguridad y el temor al delito entre la población. También adoptaron un enfoque epidemiológico: un robo o hurto domiciliario puede generar un efecto contagio y una comunicación del riesgo entre los domicilios cercanos.
Aclaró que la victimización repetida se puede explicar a partir de un conjunto de factores que indican la vulnerabilidad del objetivo/target, en el caso de la Ciudad de Córdoba, de un domicilio. La victimización repetida por cercanía puede interpretarse como dos o más eventos delictivos relacionados entre sí, a partir de uno que da origen a la serie, y que se produce en un lugar cercano al delito inicial. Ambas se dan en un rango de tiempo cercano al evento delictivo originario. Hizo hincpaie en que el ejercicio demostró que no existe aleatoriedad en la ocurrencia de los delitos domiciliarios.
En cuanto a la utilidad de este tipo de análisis, el Director González recalcó que permite diseñar intervenciones de prevención focalizadas, localizadas y contextualizadas.
Por su parte, la intervención de Ricardo Castro se centró en explicar la principal herramienta que utilizaron para llevar a cabo el anáisis de la victimización repetida y repetida por cercanía: la calculadora. Al cargar los datos en la calculadora (día y lugar en coordenadas cartesianas) se genera una tabla con coordenadas geográficas en metros, lo que permitió ubicar el lugar donde ocurren los hechos. La calculadora también permite centrar los datos en dos franjas horarias. Otras variables relevantes que se podrian considerar serían la hora y el estado del clima. Remarcó la importancia de tener acceso a los datos para poder llevar a cabo este tipo de análisis.
El Profesor Castro también explicó cómo se realizaron análisis de densidad Kernel (mapas de calor) y análisis por celdas para la victimización repetida y repetida por cercanía, con una distancia de 600 metros. Primero a nivel ciudad y luego por distrito y por cuadrante. Finalmente pudieron llegar a un análisis cuadra por cuadra. Ese análisis granular, a su vez, les permitió identificar los lugares de mayor acumulación delictiva para la victimización repetida y repetida por cercanía.
En cuanto a la utilidad de esta información, el Profesor Castro afirmó que resulta clave para la toma de decisiones operativas en el marco policial. Permite maximizar los recursos policiales, direccionarlos y concentrarlos en los lugares de mayor riesgo.
Al cerrar su intervencion, el Profesor Castro mencionó las otras herramientas abiertas que fueron utilizadas: QGIS, Visualist (un plugin para Análisis del Delito que corre en QGIS) y los scripts para R y Python.
Para acceder a toda la información de la Sesión, haga clic aquí.