camtrap guide cover

Colofón

Cita sugerida

Reyserhove L, Norton B & Desmet P (2023) Buenas prácticas para gestionar y publicar datos de cámaras trampa. Secretaría de GBIF: Copenhague. https://doi.org/10.35035/doc-0qzp-2x37

Colaboradores

Tanja Milotic y Pieter Huybrechts contribuyeron a la introducción y las figuras.

Traducciones

español

Esta guía fue traducida al Español en el marco del proyecto CESP "Fortaleciendo la publicación de datos de cámaras trampa a través de GBIF en Latinoamérica" (CESP2025-014)

Japonés

Traducida por Kumiko Totsu, Keita Fukasawa y Kana Terayama del Instituto Nacional de Estudios Ambientales de Japón, en colaboración con la Iniciativa Japonesa para la Información sobre Biodiversidad (JBIF).

Licencia

El documento Buenas prácticas para gestionar y publicar datos de cámaras trampa tiene licencia bajo Atribución/Reconocimiento-CompartirIgual 4.0 Internacional.

Control del documento

v1.2, 2026-04-28 10:03:51 UTC

Resumen

Las cámaras trampa han surgido como herramientas importantes para monitorear el estado de la biodiversidad y los ecosistemas naturales. La proliferación de datos de estos sensores ha hecho que la gestión de datos, más que la recopilación de datos, sea el factor limitante en la investigación relacionada con las cámaras trampa. Esta guía proporciona recomendaciones para la gestión de datos de cámara trampa y su publicación en GBIF. Está dirigida a cualquier persona que lleve a cabo un estudio con cámaras trampa, en particular administradores de datos, editores de datos y otras que trabajen en la informática de la biodiversidad.

1. Introducción

1.1. ¿Qué es esta guía?

Las cámaras trampa han surgido como una tecnología poderosa para la observación semiautomatizada de ecosistemas naturales. Su éxito ha llevado a un crecimiento exponencial de los datos de cámaras trampa en todo el mundo. Esto trae un gran desafío: grandes volúmenes de datos están a la espera de ser clasificados, interpretados y archivados. La gestión de datos, más que la recopilación de datos, se ha convertido en un factor limitante para la investigación con cámaras trampa. La proliferación de proyectos de cámaras trampa también ha llevado a una diversidad de terminologías, métodos de clasificación y prácticas de gestión de datos, que impiden transparencia, interoperabilidad, colaboración cruzada de proyectos o meta análisis. Una gran red interconectada de cámaras remotas podría actuar como un instrumento para la gestión de la biodiversidad en tiempo real y la toma de decisiones fiable, pero si no somos capaces de combinar datos, la investigación con cámaras trampa perderá su máximo potencial. Esta es la razón por la que los datos de las cámaras trampa deben estar abiertos y FAIR (localizable, accesible, interoperable y reutilizable, por sus siglas en inglés, ver (Wilkinson et al. (2016)), para que tanto humanos como máquinas puedan utilizar estos valiosos datos para aplicaciones presentes y futuras.

Para optimizar la (re)utilización de los datos de cámaras trampa, hay una necesidad de directrices sobre mejores prácticas. Existen varias guías que abordan uno o más elementos del ciclo de vida de la cámara trampa: planificación, tecnología y técnicas, diseño de estudio, recopilación de datos, análisis, métodos de gestión y publicación de datos (O’Connell et al. 2011; Rovero et al. 2013; Meek et al. 2014; Cadman et al. 2014; Burton et al. 2015; Wearn y Glover-Kapfer 2017). Desde entonces, la comunidad de cámaras trampa ha hecho progresos significativos:

No hay guías actualizadas disponibles que se centren únicamente en la gestión y publicación de los datos de las cámaras trampa. Esta guía pretende cubrir ese vacío.

1.2. Público objetivo

Esta guía está pensada para ser útil para cualquier persona que gestione un estudio con cámaras trampa. El enfoque específico en la gestión y publicación de datos hace que esta guía de buenas prácticas sea más útil para perfiles como administradores de datos, publicadores de datos, gestores de bases de datos y de información y estudiantes que trabajan en informática de la biodiversidad.

Los autores de esta guía tienen experiencia con las cámaras trampa tradicionales (diseñadas para mamíferos terrestres de tamaño mediano a grande), pero muchas de las recomendaciones, así como el estándar Camtrap DP, podrían ser aplicables a datos de otros tipos de cámaras trampa.

1.3. De qué no trata esta guía

Esta guía se centra principalmente en la gestión, el control de calidad, la mejora y la publicación de datos de cámaras trampa. Los siguientes temas están fuera del alcance:

  • Planear un estudio de cámaras trampa: tipos de cámaras trampa, diseño de estudio, etc.

  • Distribución y recolección de cámaras trampa: trabajo de campo, cebos y señuelos, recuperación de datos, etc.

  • Análisis: software de análisis, modelado ecológico, corrección de sesgos, etc.

  • Datos de las cámaras móviles: robots submarinos, cámaras montadas en vehículos, drones, etc.

Ya están disponibles muchas guías extensas sobre estos temas. Vea la Tabla 1 y la Tabla 2 para una breve vista general.

2. El uso de cámaras trampa

2.1. ¿Qué son las cámaras trampa?

Las cámaras trampa son dispositivos de grabación desplegados en el campo para capturar automáticamente imágenes o videos de la actividad de la vida silvestre. También se les conoce como cámaras de fototrampeo. Pueden grabar archivos multimedia en un intervalo regular (lapso de tiempo) o cuando se activa por la actividad de un animal. Tradicionalmente, "cámaras trampa" se refiere a aquellas diseñadas para grabar mamíferos terrestres de tamaño medio a grande con un sensor infrarrojo pasivo (PIR) (Hobbs and Brehme 2017), pero existen otros tipos, p. ej., para medio marino o para insectos. Al igual que satélites, drones, rastreadores GPS o sensores acústicos, las cámaras trampa recolectan observaciones mecánicas. Los sensores acústicos en particular son bastante similares a las cámaras trampa, que utilizan audio en lugar de imagen/video para observar el ecosistema circundante. Todas estas tecnologías tienen el beneficio de poder recopilar datos a una escala y frecuencia que serían difíciles de obtener a través de observaciones humanas, suelen sufrir menos del sesgo por interpretación o interferencia humana.

2.2. ¿Por qué se utilizan las cámaras trampa?

En las últimas décadas, las cámaras trampa se han utilizado cada vez más para recopilar datos de biodiversidad de forma no invasiva con una mínima perturbación de la vida silvestre. Ya en los años 1890, George Siras fue el primero en desarrollar un método que utilizaba un hilo disparador (tripwire) y flash, mediante el cual los animales salvajes se fotografiaron a sí mismos (Kucera and Barrett 2011). Los primeros estudios científicos de cámaras trampa se remontan a principios del siglo XX (Chapman 1927). Desde aquellos días de innovación, los avances tecnológicos en fotografía digital y sensores infrarrojos han conducido a la detección rentable y no invasiva de la esquiva vida salvaje (Burton et al. 2015). Las cámaras trampa se han convertido en herramientas de investigación populares: son fáciles de instalar, son relativamente baratas y no requieren permisos especiales ni formación y, por lo tanto, están siendo utilizadas por investigadores profesionales y aficionados a una escala muy amplia. En consecuencia, el número de publicaciones anuales relacionadas con estudios con cámaras trampa se ha multiplicado por más de 80 veces desde los años 1990. La tecnología de las cámaras trampa se utiliza para muestrear comunidades de mamíferos de tamaño mediano a grande, y especies de aves que habitan ecosistemas de agua dulce, terrestres, fosoriales, arbóreos y marinos y han demostrado ser excelentes herramientas para ayudar a las iniciativas de observación de la biodiversidad (Delisle et al. 2021).

Los taxones de animales más frecuentemente estudiados incluyen ungulados, carnívoros, primates y aves, aunque los sensores más innovadores también permiten la detección de pequeños mamíferos, anfibios, reptiles, peces e invertebrados (Hobbs and Brehme 2017). La tecnología de las cámaras trampa es adecuada para recoger datos de presencia, así como abundancia, densidad, diversidad y distribución de especies (Tabla 1) y para responder preguntas conductuales como patrones de actividad y respuestas a la perturbación humana. Además, las cámaras trampa no son selectivas en las observaciones de las especies y, por lo tanto, a menudo se utilizan en estudios de interacción de especies. Los datos de "captura adicional" de los estudios de especies objetivo podrían ser útiles también para otros estudios. A menudo se utilizan para monitorear especies raras, amenazadas y en peligro de extinción en terrenos remotos e inaccesibles.

Tabla 1. Objetivos y resultados de estudios de cámaras trampa tomados de [wearn-2017].
Objetivo del estudio Resultado Referencias clave

abundancia

densidad Sollmann et al. (2012); Tobler and Powell (2013); Rowcliffe et al. (2008); Rowcliffe et al. (2016)

abundancia

abundancia relativa

Rowcliffe et al. (2008); Wearn et al. (2013); Cusack et al. (2015)

distribución

ocupación

Mackenzie and Royle (2005); Guillera-Arroita et al. (2010); O’Brien (2010); Shannon et al. (2014)

diversidad

diversidad-beta

Tobler et al. (2008); Cusack et al. (2015)

diversidad

índices de diversidad

diversidad

riqueza

presencia de especies

2.3. Ciclo de vida de la cámara trampa

El ciclo de vida completo de la investigación con cámaras trampa incluye la fase de planificación, la instalación de las cámaras trampa en el campo, la recolección, la gestión, el análisis y el intercambio de datos. Esta guía no pretende cubrir todos los aspectos del ciclo de vida del proyecto con cámaras trampa. El enfoque en esta guía de buenas prácticas radica en la gestión y publicación de los datos. Para los lectores interesados en una revisión general de la investigación con cámaras trampa, la fase de planificación, la instalación de cámaras trampa en el campo, aquí proporcionamos una visión general de los recursos disponibles (ver Tabla 2).

Tabla 2. Etapas en el ciclo de vida de proyectos con cámaras trampa y referencias clave.
Tema Qué Referencia

Ciclo de vida completo de captura de cámara

Estado general de la técnica
Desarrollo futuro y restricciones de la cámara trampa

Cadman et al. (2014); Rovero and Zimmermann (2016); Wearn and Glover-Kapfer (2017); Meek et al. (2020); Glover‐Kapfer et al. (2019)

Planificación

¿Cómo diseñar un estudio con cámaras trampa?
¿Qué tipo de cámaras trampa elegir?

Wearn and Glover-Kapfer (2017); Rovero et al. (2010); Sunarto et al. (2013); Meek et al. (2014); Kays et al. (2020); Caravaggi et al. (2020); Hobbs and Brehme (2017); McIntyre et al. (2020)

Instalación y recolección

¿Dónde y cómo montar su cámara?
Almacenamiento y mantenimiento de la cámara trampa
Cebos y señuelos
Combatir el robo y el vandalismo
SConfiguración en diferentes ambientes

Wearn and Glover-Kapfer (2017); Rovero et al. (2010); Rovero et al. (2013); Meek et al. (2014)

Gestión e intercambio de datos

Consideraciones de gestión de datos
del campo al disco duro
Anotación de datos de cámaras trampa
Software para gestión de datos
Compartir y publicar datos de cámaras trampa

Sección 3 y Sección 4 de esta guía

Análisis

Software para analizar datos

Sunarto et al. (2013)

Para que el conjunto de datos de una cámara sea útil, debería definir claramente el propósito y los objetivos en la fase de planificación: ¿qué le gustaría saber de qué grupos de especies? Cada propósito trae consigo sus propias características clave a considerar, como la altura y dirección de la cámara, estacionalidad, uso de cebo, características de zona de detección, ajustes de cámara, activación y tipo de flash. Estas características deben incluirse en el conjunto de datos publicado con el fin de ser útiles en los análisis subsiguientes. Recomendamos consultar las referencias clave en Tabla 1 para lectores interesados en este tema. Adicionalmente, Wearn and Glover-Kapfer (2017) proporciona una visión global de los aspectos generales de diseño de relevamientos con cámaras trampa.

3. Gestión de datos de cámaras trampa

Una vez que una cámara trampa está operando en el campo puede generar centenas, miles o incluso millones de fotos o videos en el marco temporal del proyecto. En última instancia, es necesario analizar estos datos. Pero primero, es necesario recuperar, almacenar, organizar y etiquetar los datos. El contenido de las imágenes necesita interpretación o anotación, ya sea manualmente o con ayuda de tecnología. Todas estas etapas se consideran en el proceso de gestión de datos.

La gestión de datos es uno de los verdaderos cuellos de botella en la investigación con cámaras trampa. La enorme cantidad de información almacenada en las tarjetas de memoria requiere una alta inversión en términos de esfuerzo humano y tiempo. Si el almacenamiento y la clasificación de datos se quedan rezagados, grandes volúmenes de datos permanecerán sin utilizar y se perderán eventualmente. La extracción, la organización y el etiquetado manuales pueden introducir errores humanos y provocar la pérdida de datos. Además, a menudo existe más información en la imagen o el video que la correspondiente únicamente a la especie (o grupo) objetivo o tema que constituye el foco del proyecto. Las cámaras trampa inherentemente detectan múltiples especies, y las observaciones de especies no objetivo proporcionan datos valiosos para otros objetivos de investigación. Si se anotaran todos los datos, incluidas las especies no objetivo, se podrían generar resultados más relevantes para los fondos (Young et al. 2018; Wearn and Glover-Kapfer 2017).

Para concluir, cada investigador debe prestar atención a la calidad de los datos. La idea subyacente es: es mejor tener diez elementos bien documentados en lugar de cien elementos mal documentados. Sólo de esta manera podremos convertir la cacofonía de los datos provenientes de imágenes en bruto en datos cuantitativos útiles.

En esta sección introducimos una serie de convenciones generales para la gestión adecuada de los datos. Nos acercamos más a qué son exactamente los datos de las cámaras trampa. Nos centramos en cómo gestionar de la mejor manera y qué plataformas de gestión de datos se pueden utilizar para facilitar el proceso para cada tipo de datos de cámara trampa (metadata, media, deployments, observations).

3.1. Qué son los datos de las cámaras trampa

Intuitivamente, asociamos los datos de las cámaras trampa con los multimedia capturados por las cameras. Pero para poder utilizarlos para la investigación necesitan estar documentados con información adicional. Los archivos multimedia deben ser classified para saber qué especies fueron observadas. La información sobre el despliegue, la duración, la [location], la alineación y la metodología de muestreo, es necesaria para saber cuándo, dónde y qué tan probable era que se observaran esas especies. Finalmente, necesitamos información sobre el project/study en su conjunto para conocer el alcance y quién estaba involucrado.

En general, podemos distinguir cuatro tipos de datos de cámaras trampa:

  • Metadatos del proyecto: información sobre el proyecto/estudio cómo un todo

  • Archivos multimedia: imágenes, videos o archivos de sonido capturados por las cameras, incluyendo sus metadatos EXIF

  • Despliegues: información sobre la [location] de la cámara y su alineación, la duración de muestreo y covariables. Normalmente no se registra automáticamente por la cámara.

  • Observaciones: información sobre lo que se puede ver u oír en los archivos multimedia (es decir, objetos de interés), como animales, seres humanos o vehículos. El objetivo normalmente es registrar qué especies animales fueron observadas, incluyendo opcionalmente información sobre el tamaño de su grupo, la etapa de vida, el sexo y el comportamiento.

Estos datos pueden organizarse de diferentes maneras, basándose en la preferencia personal o en qué data management system se utiliza. Sin embargo, podemos identificar una serie de conceptos básicos, más adelante denominados como clases, que constituyen un "modelo" para los datos de cámaras trampa (ver la Figura 1). Estas clases son proyecto, organización, participante, despliegue, ubicación, dispositivos, multimedios, secuencia y observación.

Diagrama de clase
Figura 1. Diagrama de clases para datos de cámaras trampa, constituido por diferentes clases (cajas) y relaciones (líneas). Las clases obligatorias son de color azul oscuro, las clases opcionales de celeste. Los extremos de la línea representan la cardinalidad de la relación, con 0| cero o uno, 0< cero a muchos, |< uno a muchos, y || exactamente uno. Un despliegue por ejemplo tiene cero para muchos medios, mientras que un medio pertenece exactamente a un despliegue.

3.2. Metadatos del proyecto

Los metadatos del proyecto documentan un proyecto/estudio con cámaras trampa como un todo. ¿Quién estaba implicado?, ¿cuál era la razón?, ¿qué métodos de muestreo se utilizaron? y ¿cuál era el alcance? Los proyectos pueden variar mucho en tamaño y a veces son parte de meta-estudios o se subdividen en subproyectos para gestionar mejor sus cientos o miles de despliegues (p. ej., Snapshot USA). Describa los proyectos a un nivel que tenga sentido. ¿Es posible identificar a una persona que puede tomar decisiones o responder preguntas sobre el proyecto? ¿Es fácil describir la metodología? Si la respuesta a estas preguntas es no, entonces sería mejor considerar esos proyectos como separados. Tenga también en cuenta que recomendamos fuertemente publicar datos a nivel del proyecto, es decir, un conjunto de datos por proyecto (ver la Sección 4).

Cuando se publican, los metadatos del proyecto son una parte sustancial de los metadatos del conjunto de datos (ver la Figura 2), permitiendo que otros descubran su conjunto de datos cuando buscan ciertas palabras clave y evalúen si se ajusta a sus necesidades de investigación. Cuando describa su proyecto, piense en qué necesitarían los demás para entenderlo. Recomendamos cubrir los siguientes aspectos (pero no dejar que lo perfecto sea enemigo de lo bueno):

  • Título

  • Identificador y/o acrónimo

  • Descripción (incluyendo racionales)

  • Colaboradores y sus roles (incluyendo organizaciones)

  • Enlace al sitio web

  • Palabras clave

  • Financiación

  • Diseño de muestreo (simple aleatorio, sistemático aleatorio, etc.)

  • Resultado del ámbito geográfico

  • Método de captura (tipo de sensor, detección de movimiento y/o intervalo de tiempo)

  • Programas de captura (continuos, nocturnos, etc.)

  • Interrupciones de captura y eventos no planificados

  • Alcance temporal resultante

  • Método de clasificación (expertos, colaboración abierta, IA)

  • Granularidad y alcance de la clasificación (es decir, qué órganismos detectables fueron clasificados: todos los animales, solo mamíferos, únicamente individuos conocidos, etc.)

  • Alcance taxonómico resultante

  • Filtración de datos antes de la publication

Los sistemas de gestión de datos normalmente organizan esta información en las siguientes clases: proyecto, subproyecto, organización y participante (ver la Figura 1).

example metadata
Figura 2. Captura de pantalla de un conjunto de datos de cámara trampa publicado en GBIF (Cartuyvels et al. 2022). Una parte importante de sus metadatos se deriva de los metadatos del proyecto.

3.2.1. Participantes y roles

Un participante es una persona asociada a un proyecto de cámaras trampa. La información que se captura sobre un participante normalmente es su nombre, apellido, correo electrónico y ORCID. Los roles de un participante se definen en relación al proyecto (p. ej. investigador principal, persona de contacto) y organización (p. ej., investigador) (ver la Figura 1). Se utilizan diferentes nombres para roles similares (ver la Tabla 3). Recomendamos simplificarlos a un conjunto limitado de valores controlados (p. ej., package.contributors.role) al publicar datos.

Tabla 3. Funciones participativas en los estudios de cámara trampa, definidas por diferentes formatos y sistemas de gestión de datos.
Camtrap DP CTMS (Forrester et al. 2016) Protocolo de metadatos de cámara de vida silvestre (Resources Information Standards Committee RISC 2019) DataCite (DataCite Metadata Working Group 2021) EML (GBIF Secretariat 2015) Agouti (Casaer et al. 2019) Wildlife Insights (Ahumada et al. 2020)

contact

Contacto del proyecto

Coordinador del proyecto

Persona de contacto

Punto de contacto

Coordinador del proyecto

Dueño del proyecto

principalInvestigator

Investigador principal

ProjectLeader
Gestor del proyecto
Supervisor

Dueño
Investigador principal

Investigador principal

Dueño del proyecto

rightsHolder

RightsHolder

publisher

Distribuidor

Distribuidor Publicador

contributor

Secuencia identificada por
Tipo de fotografía identificada por

Miembro del equipo
Topógrafo

Gestor de datos
Curador de datos
Recolector de datos
Miembro del proyecto
Investigador

Curador
Editor
Autor
Proveedor de contenido
Originador

Administrador
Experto taxonómico
Procesador de fotografía
Voluntario

Editor del proyecto
Contribuidor del proyecto
Etiquetador del proyecto

Otro

Usuario Procesador Revisor Proveedor de metadatos

Solo vista Simulado Esperando acceso

Visor de proyecto

3.3. Archivos multimedia

Los Media files son los datos crudos que recolecta una cámara trampa. Para la mayoría de los estudios de cámaras trampa, estas serán images (ver la Figura 3 para un ejemplo), pero las cámaras trampa modernas también pueden grabar otros tipos de medios, tal como video o sonido. Los videos pueden capturar el comportamiento animal con más detalle que las imágenes y a menudo son adecuados para su divulgación, pero requieren más batería, archivos de mayor tamaño y son más difíciles de procesar.

Un compromiso utilizado a menudo es tomar una serie de imágenes cuando se activa una cámara (por ejemplo, 10 imágenes, 1 segundo de separación). Cuando se procesan los archivos multimedia, esas imágenes relacionadas se pueden combinar en una secuencia. Una secuencia no solo combina imágenes resultantes de un solo disparo, también combina desencadenadores consecutivos que caen dentro de un independence interval preestablecido (p. ej., 120s). De esa manera, la actividad continuada se capturó en un solo secuencia/[event] (ver la Tabla 4).

example image
Figura 3. Una imagen capturada por una cámara trampa desplegada como parte del proyecto MICA (Life MICA 2019). Es la quinta de una serie de diez imágenes e indica fecha, hora y temperatura. Se trata de una foto en blanco y negro de un arroyo habitado por tres aves: una garza real (Ardea cinerea) en el primer plano y una hembra y un macho de ánade real (Anas platyrhynchos) en segundo plano. Source.
Tabla 4. Una serie de imágenes, resultantes de 3 disparos consecutivos y capturados en una secuencia. Source.
Disparador ID de media Fecha y hora Ruta del archivo

1

e68deaed

2020-06-12T04:04:29Z

https://multimedia.agouti.eu/assets/e68deaed-a64e-4999-87a3-9aa0edf5970d/file

1

c5efbcb3

2020-06-12T04:04:30Z

https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

1

07eee194

2020-06-12T04:04:31Z

https://multimedia.agouti.eu/assets/07eee194-85c7-4586-96be-7b42ff6f1132/file

1

479a93c4

2020-06-12T04:04:31Z

https://multimedia.agouti.eu/assets/479a93c4-bc70-4e91-9ab5-b058df232ed0/file

1

6d65f3e4

2020-06-12T04:04:32Z

https://multimedia.agouti.eu/assets/6d65f3e4-4770-407b-b2bf-878983bf9872/file

1

5ba57018

2020-06-12T04:04:32Z

https://multimedia.agouti.eu/assets/5ba57018-fd06-4319-bc80-ba6efa076c7c/file

1

c39a0749

2020-06-12T04:04:33Z

https://multimedia.agouti.eu/assets/c39a0749-b8db-4853-81c4-32b9a99868ca/file

1

d2ed4389

2020-06-12T04:04:34Z

https://multimedia.agouti.eu/assets/d2ed4389-14e6-45d7-b67d-b52d3cffd0fb/file

1

51549c25

2020-06-12T04:04:35Z

https://multimedia.agouti.eu/assets/51549c25-e565-4ece-a26e-12442ccc3fcb/file

1

b78bb29f

2020-06-12T04:04:35Z

https://multimedia.agouti.eu/assets/b78bb29f-fbf3-49b0-911b-ca4e5a95d801/file

2

d6785b65

2020-06-12T04:04:41Z

https://multimedia.agouti.eu/assets/d6785b65-24fa-4663-8539-e5fb261d069d/file

2

2b860458

2020-06-12T04:04:42Z

https://multimedia.agouti.eu/assets/2b860458-742b-4fca-937c-2a27742dccb0/file

2

d45648b9

2020-06-12T04:04:43Z

https://multimedia.agouti.eu/assets/d45648b9-76d1-4500-898c-dd3c3f31a0b8/file

2

eecd8ce1

2020-06-12T04:04:43Z

https://multimedia.agouti.eu/assets/eecd8ce1-2b13-49b7-bcec-c0056848aa62/file

2

48d26ebc

2020-06-12T04:04:44Z

https://multimedia.agouti.eu/assets/48d26ebc-ba6e-4245-8f52-c2cc1d64ef1f/file

2

4afd0344

2020-06-12T04:04:44Z

https://multimedia.agouti.eu/assets/4afd0344-3cec-4942-987b-96b69da75e6b/file

2

916964ac

2020-06-12T04:04:45Z

https://multimedia.agouti.eu/assets/916964ac-6389-4d06-8853-2eac6c36d8e7/file

2

3e8e355a

2020-06-12T04:04:46Z

https://multimedia.agouti.eu/assets/3e8e355a-6253-4a5f-a950-2f934821b7f7/file

2

b7792672

2020-06-12T04:04:46Z

https://multimedia.agouti.eu/assets/b7792672-6a31-484a-a97b-e19e34657021/file

2

1683dd3b

2020-06-12T04:04:47Z

https://multimedia.agouti.eu/assets/1683dd3b-7791-493a-84c6-1bb50541fd97/file

3

e6c63f88

2020-06-12T04:04:49Z

https://multimedia.agouti.eu/assets/e6c63f88-a31f-4f06-9410-3213baed08ab/file

3

91a1ba54

2020-06-12T04:04:50Z

https://multimedia.agouti.eu/assets/91a1ba54-5e19-4f18-88f8-8dd0dd3ef836/file

3

233a2f40

2020-06-12T04:04:51Z

https://multimedia.agouti.eu/assets/233a2f40-b0c5-4b93-90e4-e254d2e148f5/file

3

5e01e638

2020-06-12T04:04:51Z

https://multimedia.agouti.eu/assets/5e01e638-d36f-4ca2-957d-7bbdc76dcc89/file

3

dadf1718

2020-06-12T04:04:52Z

https://multimedia.agouti.eu/assets/dadf1718-90bd-438e-8649-3663f226072f/file

3

643d63a4

2020-06-12T04:04:52Z

https://multimedia.agouti.eu/assets/643d63a4-dd46-4b9d-b3de-665fe2a46754/file

3

19744c44

2020-06-12T04:04:53Z

https://multimedia.agouti.eu/assets/19744c44-03ea-438f-9dc7-927e6e494ee1/file

3

edc345bc

2020-06-12T04:04:54Z

https://multimedia.agouti.eu/assets/edc345bc-b58a-4c0d-8659-89132449cc3c/file

3

b6e435f8

2020-06-12T04:04:54Z

https://multimedia.agouti.eu/assets/b6e435f8-b22b-4916-8275-5fbff2d84a76/file

3

54c5d869

2020-06-12T04:04:55Z

https://multimedia.agouti.eu/assets/54c5d869-8492-4b16-a72

Una cámara también graba metadatos al crear un archivo multimedia. Esto puede incluir fecha y hora, ajustes de la cámara (como velocidad de obturación, nivel de exposición, estado del flash) y otras propiedades. Para imágenes, esta información se almacena como parte del archivo y se expresa en el Formato de Archivo de Imagen Intercambiable (EXIF) (ver la Tabla 5). Los metadatos para videos son menos estandarizados, aunque algunos formatos como AVI y MOV soportan EXIF.

Los sistemas de gestión de datos normalmente organizan archivos multimedia y los metadatos asociados en las siguientes clases: multimedia, media type y secuencia (verFigura 1).

Tabla 5. Propiedades seleccionadas incluidas en los metadatos EXIF de la imagen en la Figura 3.
Propiedad Valor

Tipo de archivo

JPEG

Tipo MIME

imagen/jpeg

Ancho de imagen

2048 pixels

Altura de imagen

1440 pixels

Resolución horizontal

72 dpi

Resolución vertical

72 dpi

Versión de EXIF

0220

Marca

RECONYX

Modelo

HYPERFIRE 2 COVERT

Fecha y hora original

2020:06:12T06:04:32Z

Desplazamiento de la zona horaria

N/D

Tiempo de exposición / velocidad de obturación

1/85

ISO

200

Gama de color

sRGB

Flash

Auto, activado

Modo de exposición

Auto

Balance de blancos

Manual

Tipo de captura de escena

Estándar

3.3.1. Fecha y hora

La fecha y hora en que se registró un archivo multimedia es el aspecto más importante de sus metadatos. Esta información se utiliza para evaluar cuándo se observaron animales y no es posible encontrarlos más tarde (en contraste con, p. ej., la [location]). Dado que esta información se deriva del reloj interno de la cámara, es fundamental verificar que está configurado correctamente. Recomendamos ajustar el reloj a Coordinated Universal Time (UTC) o la hora local de invierno. Desactive el cambio automático al horario de verano y registre la zona horaria utilizada como parte del despliegue.

3.3.2. Nombre de archivo

Los archivos multimedia son administrados mejor por un data management system. Si usted mismo administra sus archivos multimedia, le recomendamos las siguientes convenciones de nombres de archivos y directorios:

  • Evite renombrar los nombres de los archivos multimedia. En su lugar, organice archivos multimedia en un directorio para cada despliegue. Esto también evita que los nombres de archivos crudos se superpongan de una cámara a otra. Tenga en cuenta que las rutas de archivos pueden ser utilizadas como identificadores en datos de clasificación.

  • Asegúrese de que ordenar los archivos alfabéticamente también los ordene cronológicamente. Este es ya probablemente el caso de nombres de archivo asignados secuencialmente (p. ej., IMG_4545.jpg). De lo contrario, inicie el nombre con la fecha (AAAAMMDD) o fecha y hora (AAAAMMDD_HHMMSS). Esto también puede ser útil para nombres de directorios.

  • Si está nombrando archivos, use separación con guión bajo [snake case] (imagen_1), separación con guión [hyphen case] (imagen-1) o separación por mayúsculas [camel case] (imagen1 o archivoVideo1) en lugar de espacio en blanco (imagen 1). Evite los caracteres especiales.

  • No guarde información de clasificación como parte del nombre del archivo multimedia.

  • Sea consistente.

# Bien
PICT0001.JPG
20200709_093352.JPG

# Mal: no puede ser ordenado cronológicamente
09072020_093352. JPG

# Mal: contiene información de clasificación
20200709_093352_Ardea_alba_1_Anas_platyrhynelig_macho_hembra.jpg

# Mal: contiene espacios y caracteres especiales
dep 2021 't WAD

3.3.3. Almacenamiento

Debido al gran volumen de datos generados, no es trivial almacenar, respaldar y gestionar archivos multimedia de forma segura. Se recomiendan servicios en la nube o servicios institucionales bien administrados, pero estos tienen un costo considerable. Recomendamos el uso de un data management system en línea para almacenar sus archivos multimedia. Algunos ofrecen este almacenamiento de forma gratuita. También es muy útil si su sistema de almacenamiento de datos puede servir archivos multimedia sobre http/https, usando stable URLs y opcionalmente autenticación. Esto le permite referenciar/enlazar directamente archivos multimedia en un conjunto de datos publicado (ver accessURI). Este servicio es proporcionado, por ejemplo, por Agouti (Casaer et al. 2019) (a través de https://multimedia.agouti.eu/assets/), Flickr [https://www.flickr.com/] (a través de https://www.flickr. om/servicios/api/) y en menor medida Zenodo [https://zenodo.org/] (limitado a 100 archivos a través del indocumentado https://zenodo.org/record/{record_id}/files/{file}).

3.4. Despliegues

Un despliegue es la colocación espacial y temporal de una cámara. Los despliegues finalizan retirando o reemplazando la cámara, cambiando su posición o cambiando su tarjeta de memoria. Los media files resultantes están asociados con ese despliegue y están mejor organizados como tal. La información de despliegue incluye [location], duración, alineación y ajustes de cámara y otras covariables como uso de cebo, tipo de características, hábitat, cobertura de dosel arbóreo, etc. (ver la Tabla 6). Esta información no es capturada por la cámara y debe registrarse manualmente. Tenga en cuenta que incluso la duración puede ser más larga que la fecha y hora del primer y último archivo de medios capturado.

Los sistemas de gestión de datos normalmente organizan despliegues en las siguientes clases: <deployment>>, [location], cámara, deployment group y subproyecto (ver la Figura 1).

Tabla 6. Información registrada para el despliegue que generó la imagen en la Figura 3. Fuente [https://camtrap-dp.tdwg.org/example/00a2c20d/].
Propiedad Valor

ID de despliegue

00a2c20d

Fecha/hora de inicio

2020-05-30T04:57:37+02:00 (= 2020-05-30T02:57:37Z)

Fecha/hora de fin

2020-07-01T11:41:41+02:00 (= 2020-07-01T09:41:41Z)

ID de ubicación

e254a13c

Nombre de ubicación

B_HS_val 2_processiepark

Latitud

51.496

Longitud

4.774

Incertidumbre de coordenadas

187 m

Otra información de ubicación

posición:arriba de arroyo

Cámara configurada por

anonimizado:3eb30aa

ID de cámara

320

Modelo de cámara

Reconyx-HF2X

Retraso de cámara

0 s

Peso de cámara

1,30 m

Profundidad de la cámara

Inclinación de la cámara

-15 °

Dirección de la cámara

285 °

Distancia de detección

3,20 m

Problemas de fecha y hora

falso

Uso de cebo

falso

Hábitat

Región de Campine con una serie de valles fluviales con praderas valiosas

3.4.1. Nombre de columna

La información de despliegue se registra mejor en un data management system. Si administra su información de despliegue en otros lugares (por ejemplo, una hoja de cálculo), le recomendamos las siguientes convenciones para nombrar las columnas:

  • Utilice nombres descriptivos, para que los usuarios tienen una idea de qué información esperar.

  • Separar palabras usando guión bajo [snake case] (ubicación_despliegue_1), guión [hyphen case] (despliegue-ubicación-1) o mayúsculas [camel case] (despliegueUbicación1) en lugar de espacios (ubicación de despliegue 1). El uso del guión bajo garantiza el nivel de interoperabilidad más alto entre sistemas, el uso de la separación por mayúsculas se utiliza con mayor frecuencia en los estándares de datos.

  • Evite abreviaturas para mitigar el riesgo de confusión, excepto con palabras conocidas como ID para identificador.

  • Evite incluir unidades y tipos de datos. Describa estos datos en otras partes (p. ej., en una hoja separada, documento README o Table Schema), junto con la definición de la columna y los valores controlados (ver la Tabla 7).

  • Sea consistente.

# Bien
nombreCientífico
despligue_grupo

# Mal: contiene espacios
nombre científico

# Mal: abreviado
desp_gr

# Mal: nombres inconsistentes
latitud y longitudcoordenadas

# Mal: incluye unidades o tipos de datos
altura_cámara_metros_doble
Tabla 7. Ejemplo de cómo describir los datos de implementación en una hoja de cálculo independiente.
Nombre de columna Definición Notas Unidad Tipo de datos Requerido (s/n)

deploymentID

Identificador único del despliegue.

Este identificador se genera automáticamente.

cadena

deploymentStart

Fecha y hora en que comenzó el despliegue.

Formateado como AAAA-MM-DDTHH:MM:SSZ.

fecha y hora

deploymentEnd

Fecha y hora en que finalizó el despliegue.

Formateado como AAAA-MM-DDTHH:MM:SSZ.

fecha y hora

latitude

Latitud de la ubicación de despliegue.

Usa el datum WGS84.

grados decimales

número

longitude

Longitud de la ubicación de despliegue.

Usa el dato WGS84.

grados decimales

número

cameraHeight

Altura a la que se desplegó la cámara.

metros

número

no

cameraHeading

Ángulo en el que la cámara fue desplegada en el plano horizontal.

Los valores (0-360) comienzan en sentido horario desde el norte, por lo que 0 = norte, 90 = este, 180 = sur, 270 = oeste.

grados decimales

número

no

3.4.2. Localización

Una [location] es el lugar físico donde se encuentra una cámara durante un despliegue. Se puede describir con un nombre, identificador y/o descripción, pero recomendamos siempre registrar las coordenadas geográficas geographical coordinates. Estas se expresan más comúnmente como latitud y longitud en grados decimales, usando el datum WGS84 WGS84.

Las coordenadas se determinan mejor mediante un receptor GPS en la propia ubicación. Si esto no es posible, utilice recursos (en línea) y buenas prácticas de georeferenciación (Chapman and Wieczorek 2020) para obtenerlos. Además de las coordenadas y el datum geodésico (p. ej., WGS84) es importante registrar la incertidumbre de las coordenadas uncertainty of the coordinates, que se ve afectada por varios factores:

  • La extensión extent de la ubicación. Tenga en cuenta que para las cámaras trampa esto incluye la detection distance, que normalmente está entre 5 y 20 metros.

  • La precisión del receptor GPS o recurso de georreferencia. La mayoría de los receptores GPS tienen una precisión de 5 metros en áreas abiertas cuando utilizan cuatro o más satélites (Chapman and Wieczorek 2020). El dosel del bosque o la conexión satelital limitada pueden reducir la precisión. Google Maps u Open Street Maps tienen una precisión de 8m (Chapman and Wieczorek 2020).

  • La precisión de las coordenadas coordinate precision. Cuanto menos precisa (y más cerca del ecuador) mayor es la incertidumbre, p.ej., las coordenadas WGS84 con una precisión de 0,001 grados tienen una incertidumbre de 157 metros en el ecuador (ver la Tabla 3 Table 3 en Chapman and Wieczorek (2020)).

  • Un unknown datum. Esto puede ir de centímetros a kilómetros (Chapman and Wieczorek 2020), por lo que siempre es importante registrar el datum utilizado por el receptor GPS o el recurso de georeferenciación (WGS84 para Google Maps u Open Street Maps).

  • La incertidumbre máxima combinada se expresa de forma más conveniente como una incertidumbre de coordinación en metros, permitiendo que la ubicación se describa con el método punto-radiofónico.

La incertidumbre máxima combinada se expresa de forma más conveniente como una incertidumbre de coordenada en metros, permitiendo que la ubicación se describa con el método punto-radio point-radius-method.

La mayoría de las otras propiedades asociadas con una ubicación como país y estado, pero incluso elevación, pendiente, cubierta de tierra o índice de área de hoja, puede derivarse de las coordenadas utilizando un recurso en línea.

3.4.3. Modelo de cámara, ajustes y alineación

Dado que un despliegue se relaciona con la colocación de una cámara, es importante registrar información sobre su modelo, configuración y alineación. El modelo consiste en nombre del fabricante y el nombre del modelo (p. ej., Reconyx-PC800). Excepto para el quiet period, la mayoría de los ajustes de la cámara normalmente se registran automáticamente como parte de los metadatos EXIF. La detection distance puede variar mucho dependiendo del terreno y la vegetación, y se mide mejor en el campo haciendo que alguien se mueva delante de la cámara a diferentes distancias. La alineación es la colocación física de una cámara en espacio 3D. Consiste en camera height, camera depth, camera tilt y camera heading.

3.4.4. Grupos de despliegue

Puede ser útil categorizar despliegues en deployment groups para facilitar su gestión y análisis de datos. Un grupo de despliegue puede ser temático (p. ej., despliegue emparejado), espacial (p. ej. tierra privada, bosque abierto) o temporal (por ejemplo, verano de 2005) en la naturaleza (ver la Figura 4). Un solo despliegue puede pertenecer a cero o más grupos de despliegue. Los Subprojects son un tipo especial de grupo de despliegue utilizado para subdividir proyectos muy grandes que contienen muchos miles de despliegues. Esto facilita su gestión. Un solo despliegue puede pertenecer a un solo subproyecto.

deployment groups
Figura 4. Mapa que muestra una selección de despliegues del proyecto NC Candid Critters (Lasky 2016). Los despliegues se pueden categorizar de manera diferente con base en los deployment group(s) a los que pertenecen. Izquierda (A): grupos de despliegue que representan el tipo de sitio (área boscosa, área abierta, patio residencial, sendero), a la derecha (B): grupos de despliegue que representan el tipo de propiedad (privada, pública). El proyecto también utilizó subprojects para desplegar grupos por condado (no mostrado en la figura).

3.4.5. Covariantes

Las covariantes son variables que pueden afectar el comportamiento y, por tanto, la detección de animales. Registrar estas variables es importante para un análisis más profundo de los datos. Bait, feature type y habitat type son covariables comúnmente registradas. El qué y el cómo registrar covariantes debe ser consistente dentro de un proyecto, pero normalmente no es así entre proyectos, a menos que formen parte de un estudio de investigación más amplio y bien coordinado. Para facilitar la interoperabilidad, recomendamos hacer uso de los sistemas de clasificación existentes para registrar covariables:

3.5. Observaciones

Las Observations son una interpretación de lo que se puede ver u oír en media files. Estas no se limitan a observaciones de especies, sino que también pueden indicar si el archivo de multimedia contiene un vehículo, un humano o un objeto desconocido, o que no se observó nada de interés (blanks). Por eso a veces también se les llama clasificaciones, anotaciones o identificaciones. El objetivo es típicamente registrar qué especies animales fueron observadas, incluyendo opcionalmente información sobre el tamaño de su grupo, la etapa de vida, el sexo y el comportamiento (ver la Tabla 8).

Las observaciones se registran de mejor manera en un data management system, que típicamente organiza observaciones en las siguientes clases: observación, observation type y secuencia (ver la Figura 1). Si administra su información de observación en otros lugares (p. ej., una hoja de cálculo), le recomendamos seguir las mismas column naming conventions para los despliegues.

Tabla 8. Información registrada para una de las observaciones que se basa en la imagen en la Figura 3. Está clasificado a nivel de eventos (secuencia) en el sistema de gestión de cámara trampa Agouti. Source.
Propiedad Valor

ID de observación

05230014

Tipo de observación

animal

ID de taxón

GCHS

Nombre científico

Ardea cinerea

Conteo

1

Etapa de vida

adulto

Método de clasificación

humano

Clasificado por

Peter Desmet

Fecha y hora de clasificación

2023-02-02T13:57:58Z

3.5.1. Clasificación

Desafortunadamente, las cámaras trampa no proporcionan observaciones directamente. Los archivos multimedia necesitan ser classified para obtener observaciones. Este proceso se puede realizar en diferentes etapas y con diferentes niveles de precisión y granularidad:

  • El medio contiene o does not objetos de interés.

  • Los objetos de interés son humanos o vehículos, o no pueden ser identificados.

  • El objeto de interés es un animal, identificado a un nivel taxonómico alto (p. ej., un roedor).

  • Un animal se identifica a nivel de especie o subespecie (p. ej., Sus scrofa).

  • Un animal se identifica como un indivuduo conocido (por ejemplo, la loba Noëlla).

  • Se registran otras propiedades del animal, como el tamaño del grupo, la etapa de vida, el sexo y el comportamiento.

La clasificación puede ser hecha por humanos y/o máquinas. Estos actores (expertos, voluntarios, IA) pueden alcanzar diferentes niveles de precisión (ver la Tabla 9), en base a su experiencia (¿puedo llegar a tal precisión?) y esfuerzo (¿quiero llegar a tal precisión?). Dado que la clasificación puede ser muy intensiva en mano de obra para estudios más grandes, es mejor utilizar un enfoque que produzca los datos necesarios de manera eficiente. La ciencia ciudadana, la inteligencia artificial y/o los events de clasificación, más que los archivos multimedia individuales son los que pueden ayudar a acelerar el proceso (Green et al. 2020). Cualquiera que sea la técnica, recomendamos siempre registrar quién hizo la clasificación y qué tipo de técnica (humana vs máquina) fue utilizada.

Tabla 9. Los registros de observación de cuatro patos observados, pero provistos en distintos niveles de precisión. La primera fila es el resultado de una clasificación a un nivel taxonómico alto (familia Anatidae). La segunda fila es el resultado de una clasificación a nivel de especies (Anas platyrhynchos), pero no se registraron más características. Las filas tres y cuatro son el resultado de una clasificación que más tarde se especificó que un pato era macho y que mostró un comportamiento de búsqueda de alimento. Source.
Nombre científico sexo conteo comportamiento

Anatidae

4

Anas platyrhynchos

4

Anas platyrhynchos

macho

1

foraging

Anas platyrhynchos

3

3.5.2. Ciencia ciudadana

Los Citizen scientists son voluntarios de la comunidad no científica que ayudan a los científicos en su trabajo. Pueden contribuir a los estudios de cámaras trampa de diversas maneras, como la colocación de cámaras y el cambio de tarjetas de memoria. En una práctica llamada colaboración abierta, los investigadores también pueden distribuir la tarea de classifying archivos multimedia, compartiéndolos en línea a una comunidad de científicos ciudadanos. Cada clasificación ayuda a confirmar o mejorar la opinión de la comunidad sobre las especies observadas (Swanson et al. 2015; Hsing et al. 2018).

La mayoría de los proyectos utilizan plataformas en línea establecidas para la colaboración abierta (Fortson et al. 2012; Swanson et al. 2015), (Chimp&See [https://www.zooniverse.org/projects/sassydumbledore/chimp-and-see?language=es]), tal como Zooniverse (Simpson et al. 2014), MammalWeb (Bradley 2017), Digivol (Alony et al. 2020) o DoeDat (Groom et al. 2018). Estas plataformas dan acceso a grandes bases de voluntariado ya existentes, lo que es especialmente importante si se necesitan clasificaciones en un plazo breve. Tenga en cuenta, sin embargo, que la gestión de un proyecto de ciencia ciudadana lleva tiempo y podría ser más conveniente para estudios más grandes. Además de subir archivos multimedia a una plataforma, esperar clasificaciones, descargar observaciones consensuadas y tratar con observaciones no consensuadas, necesita mantener a la comunidad comprometida y/o atraer nuevos miembros. También es importante excluir sensitive media del proceso, tales como los archivos multimedia que contienen humanos (para proteger su privacidad) y especies raras. Esto requerirá algún tipo de preprocesamiento, que es donde entra la inteligencia artificial (IA) (Weinstein 2018).

3.5.3. Inteligencia artificial

En el contexto de la investigación con cámaras trampa, la inteligencia artificial (IA) normalmente se refiere al uso de computer vision para la clasificación. Estos modelos de computadora son trained con conjuntos de datos ya clasificados y pueden procesar millones de archivos multimedia en una fracción del tiempo que le tomaría a un humano (Norouzzadeh et al. 2021). El campo ha sido testigo de avances significativos en los últimos años y ahora los modelos pueden filtrar registros en blanks y archivos multimedia que contienen humanos, reconocer especies, contar o rastrear individuos, así como reconocer animales individuales cite:[price-tack-2016,gomez-villa-2017,nguyen-2017,brides-2018,norouzzadeh-2020,yousif-2018. Salen modelos nuevos todos los años, pero es especialmente su incorporación en data management systems lo que aumentará su uso, especialmente por usuarios que no tienen experiencia en el aprendizaje automático. Como tal, es probable que la visión de computadora se convierta en la técnica dominante para clasificar los datos de las cámaras trampa en un futuro próximo.

Aun así, la visión informática no reemplazará por completo la clasificación humana, ya que se necesita un número grande y diverso de datos preprocesados para entrenar los modelos. Los conjuntos de datos de entrenamiento desequilibrados pueden producir un bajo rendimiento de los modelos, tales como conjuntos de datos de capacitación con un número muy variable de imágenes de cada especie, o pequeños conjuntos de datos geográficamente limitados. Además, la precisión de la clasificación de la visión informática sigue siendo actualmente secundaria a la de un experto humano. Por lo tanto, se recomienda una combinación de preprocesamiento con ayuda de la IA y verificación humana.

3.5.4. Clasificación basada en archivos multimedia o en eventos

Las clasificaciones pueden basarse en un único archivo multimedia (normalmente una imagen) o un [event] (normalmente una secuencia de imágenes). En esta última técnica, todos los archivos multimedia que pertenecen al [event] se evalúan como un todo para determinar la especie y su número de individuos. Esto consume menos tiempo para las clasificaciones humanas y puede dar lugar a mejores estimaciones del tamaño del grupo, ya que el número de individuos que pasan por una cámara puede ser mayor que los que se pueden ver en una sola imagen. La desventaja de la clasificación basada en eventos es que no es posible dividir la clasificación en eventos más cortos que el que se evalúa (lo mismo puede decirse de los vídeos clasificados como un todo). Estas clasificaciones tampoco pueden utilizarse para entrenar modelos informáticos, que requieren conjuntos de datos de entrenamiento basados en archivos multimedia.

Como resultado, los data management systems pueden favorecer una técnica sobre la otra, u ofrecer ambas. Los conjuntos de datos resultantes pueden incluir clasificaciones basadas en medios, basadas en eventos o ambos tipos de estas.

3.5.5. Nombres comunes o científicos

Los archivos multimedia pueden clasificarse usando nombres comunes (p. ej., zorro gris) o científicos (por ejemplo, Lycalopex gymnocercus) para taxones. Los nombres comunes (o vernáculos) son más fáciles de recordar y permiten una mejor participación del público. El inconveniente es que están sujetos a la traducción, pueden variar a nivel regional, a veces referirse a diferentes especies (p. ej. "elk" en Norteamérica se refiere a Cervus canadensis, mientras que en Europa se utiliza para Alces alces) y podría no existir para cada especie o combinación de lenguajes. Por otra parte, los nombres científicos siguen estrictas reglas nomenclaturales, son globalmente consistentes y no están sujetos a traducción. Por lo tanto, recomendamos siempre almacenar el nombre científico como parte de la observación, incluso si sólo se presentan nombres comunes al usuario.

La lista de nombres científicos disponibles para la clasificación en un proyecto se mantiene mejor en una única tabla de referencia. Esto facilita el manejo de la clasificación taxonómica y los nombres comunes asociados, y permite restringir las opciones de clasificación a aquellas especies que sea probable que aparezcan. Se pueden añadir más taxones si es necesario, pero sólo después de la verificación. Esta práctica es utilizada por la mayoría de los data management systems. Para completar la tabla de referencia, recomendamos utilizar una fuente autorizada (ver la Tabla 10) y almacenar los identificadores de taxón utilizados por esa fuente como referencia.

Tabla 10. Selección de fuentes para nombres científicos, nombres comunes e información taxonómica.
Fuente Covertura taxonómica Usar para

Catálogo de la vida (Bánki et al. 2023)

Todos

Nombres científicos+ Nombres comunes (seleccionar idiomas)
Taxonomía

Registro Mundial de Especies Marinas (WoRMS) (WoRMS Editorial Board 2023) Especies marinas (no exclusivamente)

Nombres científicos
Nombres comunes (muchos idiomas)
Taxonomía

Wikipedia (versiones en inglés y en otros idiomas)

Todos

Nombres comunes (muchos idiomas)

Lista de Clements de aves del mundo (Clements et al. 2022)

Aves

Nombres científicos
Nombres comunes (Inglés)
Taxonomía

Lista Roja de Especies en amenazadas de la UICN

Mamíferos

Nombres científicos
Nombres comunes (seleccionar idiomas)
Taxonomía

Base de datos de diversidad de mamíferos de la American Society of Mammalogists

3.6. Sistemas de gestión de datos

La gestión de los datos de las cámaras trampa puede ser abrumadora, especialmente para proyectos más grandes. Afortunadamente, se han desarrollado varias herramientas de software y plataformas para ayudar a los investigadores con algunos o todos los aspectos de la gestión de datos de cámaras trampa (Young et al. 2018). Estas iniciativas a menudo fueron comenzadas por equipos de investigación para facilitar sus propias necesidades, pero algunos han llegado a ser sistemas completos que pueden ser utilizados por cualquiera. Discutimos y recomendamos cinco de ellos a continuación (ver la Tabla 11 para una visión general de sus características). Soportan todo el ciclo de vida de la gestión de datos de cámara trampa:

  • Crean uno o más proyectos

  • Invitan a collaborators con distintos niveles de acceso

  • Subir medios y crear despliegues

  • Classify archivos multimedia para observaciones, apoyados opcionalmente por AI y citizen science

  • Gestionan listas de referencias de especies, ubicaciones, covariantes, etc.

  • Incorporan al público haciendo que algunos o todos los metadatos del proyecto estén disponibles en un sitio web

  • Exportan datos en un formato estandarizado para análisis y publicación de datos

  • Archivan datos, incluyendo archivos multimedia

3.6.1. Agouti

Agouti (Casaer et al. 2019) (https://agouti.eu) es un sistema en línea para gestionar los datos de las cámaras trampa. Es mantenido por la Wageningen University & Research y el Instituto de Investigación para la Naturaleza y los Bosques (INBO), con sede respectiva en los Países Bajos y Bélgica. Agouti es utilizado principalmente por proyectos europeos y es de uso gratuito.

La clasificación se basa en eventos, pero las posiciones de los animales se pueden registrar a nivel del archivo multimedia, permitiendo registrar los datos necesarios para los análisis a distancia (Howe et al. 2017) y el modelado de encuentros aleatorios (Marcus Rowcliffe et al. 2011). La clasificación con IA es posible, utilizando un modelo específico de clasificación de especies que se actualiza regularmente. Los archivos multimedia que contienen seres humanos siempre están ocultos al público. Los datos se almacenan en la infraestructura universitaria, que también ofrece archivos a largo plazo y enlaces directos a los archivos multimedia. Los metadatos del proyecto pueden estar disponibles a través de un portal público. Los datos pueden ser exportados como Camtrap DP.

Agouti es una buena elección para las organizaciones que quieren un servicio europeo completo gratuito.

3.6.2. Camelot

Camelot (Hendry and Mann 2018) (https://camelotproject.org/) es un sistema local para gestionar los datos de las cámaras trampa. Se mantiene como una iniciativa de voluntariado con sede en Australia. Camelot es de uso gratuito, de código abierto, disponible para todos los principales sistemas operativos y requiere instalación. Normalmente se utiliza como una aplicación de escritorio local, pero puede configurarse en un servidor que permite a varios usuarios conectarse a través de su navegador. La clasificación es basada en archivos multimedia con la opción de clasificar múltiples archivos a la vez. No se ofrece clasificación por IA. Los datos pueden ser exportados en un formato personalizado.

Camelot es una buena opción para organizaciones e individuos que quieren una solución ligera que puedan gestionar por su cuenta.

3.6.3. TRAPPER

TRAPPER (Bubnicki et al. 2016) (https://os-conservation.org/projects/trapper) es un sistema en línea para gestionar los datos de las cámara trampa. Es mantenido por el Open Science Conservation Fund, radicado en Polonia. TRAPPER es utilizado principalmente por proyectos europeos y es de uso gratuito. El software es de código abierto y requiere instalación y alojamiento. La clasificación es basada en archivos multimedia con la opción de clasificar múltiples archivos a la vez. La clasificación por IA es posible, utilizando modelos de clasificación de especies existentes. Los datos pueden ser exportados como Camtrap DP.

TRAPPER es una buena opción para las organizaciones que quieren controlar el software y donde se almacenan sus datos.

3.6.4. Wildlife Insights

Wildlife Insights (Ahumada et al. 2020) (https://www.wildlifeinsights.org) es un sistema en línea para gestionar los datos de las cámaras trampa. Es mantenido por Conservación Internacional, Google y otros socios, con sede en los Estados Unidos. Wildlife Insights se utiliza principalmente en proyectos en América y utiliza un modelo de suscripción por categorías (incluyendo niveles gratuitos). Los archivos multimedia subidos se clasifican automáticamente a nivel de multimedia por IA, utilizando un modelo de clasificación específico desarrollado por Google. Los archivos multimedia que contienen seres humanos siempre están ocultos al público. La clasificación adicional tiene la opción de clasificar varios archivos a la vez. Los datos se almacenan en la nube, puede ser utilizado por Wildlife Insights para entrenar IA y debe hacerse público después de un período máximo de embargo de 48 meses. Los metadatos del proyecto siempre están disponibles a través de un portal público. Los datos pueden exportarse en un formato personalizado, basado en CTMS (Forrester et al. 2016).

Wildlife Insights es una buena opción para organizaciones que quieren un servicio completo con fuertes requisitos de IA y datos abiertos.

3.6.5. WildTrax

WildTrax (Bayne et al. 2018) (https://www.wildtrax.ca/) es un sistema en línea para gestionar los datos de las cámaras trampa. Es mantenido por la Universidad de Alberta, con sede en Canadá. WildTrax es utilizado principalmente por proyectos canadienses y es de uso gratuito (excepto para proyectos muy grandes). La clasificación es basada en archivos multimedia con la opción de clasificar múltiples archivos a la vez. La clasificación por IA es posible, pero sólo a un nivel amplio (blancos, animales, vehículos), la clasificación de especies (todavía) no se ofrece. Los datos se almacenan en la nube. Los metadatos del proyecto pueden estar disponibles a través de un portal público. Los datos pueden ser exportados en un formato personalizado (con el paquete R asociado).

WildTrax es una buena elección para organizaciones que quieren un servicio gratuito con sede en Canadá.

Tabla 11. Comparación de características ofrecidas por cinco sistemas de gestión de datos. No se muestran las características que son las mismas para todos los sistemas.
Característica Agouti Camelot TRAPPER Wildlife Insights

Proporcionado como

Servicio

Software

Software

Servicio

Costo

Gratuito

Gratuito

Gratuito

Modelo de suscripción en niveles (incl. gratuito)

Código abierto

No

No

Supported media types

Image, Video

Image

Image, Video

Image

Tipos de archivos soportados

Sí (limitado)

Idiomas soportados

Inglés, croata, neerlandés, francés alemán, polaco español

Inglés

Inglés

Muchos (a través del traductor de Google)

Clasificación basada en archivos multimedia o eventos

Basada en eventos

Basada en archivos

Basada en archivos

Basada en archivos

Clasificación IA

Sí (clasificación de especies)

No

Sí (clasificación de especies)

Sí (clasificación de especies)

Integración con plataforma de colaboración abierta

Sí (Zooniverse)

No

No

Portal del proyecto

No

No

Almacenamiento de datos

Infraestructura universitaria

Servidor propio

Servidor propio o nube

Nube (Google Cloud Platform)

Derechos de datos otorgados al sistema

Mínimo

Ninguno

Ninguno

Algunos (p. ej., para del entrenamiento de la IA y productos de datos resumidos)

Requisito de datos abiertos

No (pero recomendado)

No

No (pero recomendado)

Sí (los datos pueden mantenerse privados durante 48 meses, los metadatos del proyecto son siempre públicos)

Servidor multimedia

No

Formato de exportación

Camtrap DP

Formato personalizado

Camtrap DP

Formato personalizado

4. Publicación de datos de cámaras trampa

La publicación de datos es el proceso de abrir los datos de biodiversidad y FAIR (Wilkinson et al. 2016). La adopción de los principios FAIR garantiza que los datos de sus cámaras trampa puedan encontrarse, consultarse, integrarse y reutilizarse (ver la Sección 4.1) para muchas aplicaciones, desde casos de uso biológico (modelo de distribución de especies, estimación de densidad de población, etc.) hasta proporcionar datos de capacitación para el desarrollo de modelos de machine learning. Recomendamos el uso de la Herramienta para la publicación integrada de datos (IPT) GBIF (Robertson et al. 2014) para hacerlo. Facilita la publicación de datos y el registro en el Centro de Información sobre la Biodiversidad Global (GBIF), una red internacional e infraestructura de datos para datos de biodiversidad.

Antes de publicar a través de GBIF, debe preparar (ver la Sección 4.2) y normalizar sus datos. La estandarización de datos es la transformación de datos a un data exchange format específico para que se vuelva interoperable con otros datos en GBIF. GBIF soporta Camtrap DP y Darwin Core Archive como los formatos de intercambio de datos de cámaras trampa. Las recomendaciones para estos formatos se proporcionan en la Sección 4.3 y la Sección 4.4 respectivamente.

Recomendamos encarecidamente publicar datos de cámaras trampa a nivel de proyecto, es decir, un conjunto de datos por proyecto. Esto hace más fácil describir el alcance, la metodología, los colaboradores, las fuentes de financiación, etc. en los metadatos. Para obtener una visión general sobre cómo publicar datos a GBIF, consulte GBIF Secretariat (2018).

4.1. Datos FAIR de cámara trampa

Imagínese que necesita añadir todas las observaciones de ratas almizcleras registradas en Bélgica en 2023. Hacerlo es difícil si los datos se encuentran dispersos en distintas fuentes y utilizan diferentes protocolos, nombres de campo e idiomas. Hacer estas fuentes de datos FAIR significa organizarlas de tal manera que todos (humanos y máquinas) puedan encontrarlas, usarlas, entenderlas y combinarlas.

La forma más fácil de hacer un conjunto de datos localizable es proporcionando metadatos significativos (p. ej. título, descripción y palabras clave) y depositarlo en un repositorio de investigación (como el IPT de GBIF (Robertson et al. 2014)). Los repositorios proporcionan funcionalidades de búsqueda de conjuntos de datos cruzados y asignarán a cada conjunto de datos un unique identifier para que pueda ser referenciado únicamente y accedido. Agregar una license abierta al conjunto de datos permitirá que los usuarios puedan acceder y reutilizar los datos (además de los metadatos), mientras que los rich metadata (p. ej., metodología) permitirán a los usuarios determinar si el conjunto de datos es adecuado para su propósito. El aspecto más desafiante es hacer un conjunto de datos interoperable para que pueda integrarse fácilmente con otros datos. Esto puede lograrse mediante el uso de estándares: repositorios de datos estandarizarán los metadatos y se puede utilizar Camtrap DP para estandarizar los datos. Ver también Bubnicki et al. (2023) (sección "Is Camtrap DP FAIR?") para más información sobre cómo Camtrap DP permite el intercambio de datos FAIR.

4.2. Preparar datos

4.2.1. Identificadores únicos estables

Términos como deployments.deploymentID o dwc:occurrenceID [dwc:IDocurrencia] esperan un identificador que:

  • Se requiere que sea único, es decir, se refiere de forma única a un registro o concepto.

  • Se recomienda firmemente que sea estable/persistente, es decir, no cambia con el tiempo y puede ser referenciado con seguridad.

  • Se recomienda que sea único globalmente, es decir, se refiera de forma única a un registro o concepto en un contexto global.

Si está disponible, recomendamos utilizar el identificador asignado por el data management system, tal como esté. Estos identificadores serán únicos, muy probablemente estables, y a veces únicos a nivel global (por ejemplo, un UUID). También permiten a los usuarios (con acceso) buscar el registro en el sistema de gestión de datos. Recomendamos no añadir elementos al identificador para hacerlo único globalmente, ya que esto lo hace más propenso al cambio. Dado que los conjuntos de datos pueden ser identificados de forma única (p. ej., con un DOI), es suficiente si el identificador es único dentro del conjunto de datos.

4.2.2. Información sensible

Los datos de las cámaras trampa pueden contener información sensible, como información personal (p. ej., nombres o imágenes de personas vivas), la ocurrencia de las especies sensibles (p. ej., raras o en peligro de extinción), las ubicaciones de cámaras gestionadas de manera activa, o incluso notas y comentarios no destinados al público. Recomendamos seguir las buenas prácticas en Chapman (2020), que favorecen la generalización sobre la restricción del registro en su conjunto.

Datos personales

Los datos personales son cualquier información relacionada con una persona viva identificada o identificable. Esta información está sujeta a regulaciones como RGPD. En los datos de la cámara trampa, los datos personales son los nombres de los participants, sus direcciones de correo electrónico y el lugar donde están los participantes que configuraron la cámara (identificable combinando el nombre con la fecha de despliegue y la [location]). En Camtrap DP, los nombres de las personas pueden aparecer en package.contributors, package.bibliographicCitation, deployments.setupBy y observations.classifiedBy. En Darwin Core Archive, los nombres de las personas pueden aparecer en los metadatos y términos como dwc:identifiedBy.

Recomendamos contactar a los participantes para preguntar si su información personal puede hacerse pública y anonimizarla (p. ej., anonymized:3eb30aa) o excluirlo cuando prefieran no hacerlo. Algunos data management system (como Casaer et al. (2019)) permite a los usuarios indicar sus preferencias y anonimizar automáticamente sus datos personales en las exportaciones. Tenga en cuenta que puede no ser posible eliminar permanentemente información personal de versiones antiguas de un conjunto de datos ya publicado.

Archivos multimedia sensibles

Los Media files que contienen personas identificables son una forma de personal data que deben ser identificados y mantenidos privados para proteger la privacidad de las personas. Esto puede ser necesario para archivos multimedia que contienen vehículos o la configuración de la imagen de cámara. Es posible que los archivos multimedia que contienen especies sensibles deban mantenerse privados si se puede identificar la ubicación.

Recomendamos proporcionar la URL a todos los archivos multimedia (en media.filePath or ac:accessURI), pero regulando su acceso a nivel de proveedor (p. ej., https://multimedia.agouti.eu/assets/813bafb2-befe-45fa-b0e3080f1f019a70/file). El acceso esperado puede describirse en media.filePublic o ac:serviceExpectation ac:serviceExpectation. Tenga en cuenta que en un Darwin Core Archive, las observaciones (y los archivos multimedia) de los humanos, los vehículos, la configuración, etc. son típicamente excluidos.

Información de ubicación sensible

Los datos de la cámara trampa pueden contener información de [location] de especies sensibles. Las ubicaciones de cámaras gestionadas de forma activa también pueden ser sensibles al vandalismo y el robo. Recomendamos seguir a Chapman (2020) para determinar la sensibilidad (Capítulo 2) y elegir una generalización apropiada.

Tenga en cuenta que la información de ubicación de las cámaras trampa es a menudo la misma a través de múltiples deployments. Generalizar las coordenadas del despliegue con información sensible asociada probablemente no es suficiente para prevenir análisis correlacionales. Una deployments.locationID compartida por múltiples despliegues, por ejemplo, puede llevar a deducciones de localidades/registros que están generalizados. Asegúrese de generalizar las coordenadas para la [location] a través de despliegues.

Cualquiera que sea el nivel seleccionado de generalización, documéntelo en los metadatos del conjunto de datos y términos apropiados, de modo que los usuarios estén al tanto. Ver la Tabla 12 para un ejemplo.

Tabla 12. Cómo expresar la información de ubicación no generalizada vs generalizada en Camtrap DP y Darwin Core. El ejemplo generalizado asume una sensibilidad de https://docs.gbif.org/sensitive-species-best-practices/master/es/#cat4][Categoría 4]. La incertidumbre de coordenadas de 187 metros es la suma de la precisión GPS (30 m) y la máxima incertidumbre asociada con coordenadas que tienen una precisión de 0,001 grados (157 m).
Término de Camtrap DP Término de Darwin Core No generalizado Generalizado

deployments.latitude

dwc:decimalLatitude

51.18061

51.181

deployments.longitude

dwc:decimalLongitude

5.65490

5.655

implícito

dwc:geodeticDatum

EPSG:4326

EPSG:4326

deployments.coordinateUncertainty

dwc:coordinateUncertaintyInMeters

30

187

package.coordinatePrecision

dwc:coordinatePrecision

0.00001

0.001

dwc:georeferenceRemarks

fuente asumida como GPS, incertidumbre predeterminada a 30 m

fuente asumida como GPS, incertidumbre predeterminada a 30 m

dwc:dataGeneralizations

coordenadas redondeadas a 0,001 grados

Otra información sensible

Los campos de texto como comentarios y notas (p. ej., deployments.deploymentComments o dwc:occurrenceRemarks) pueden contener información sensible como person names, sensitive location information o información no destinada al público. Recomendamos verificar valores y generalizar donde sea necesario (ver Capítulo 3 en Chapman (2020)).

4.3. Camptrap DP

Recomendamos el uso del Camera Trap Data Package (Camtrap DP) para publicar datos de cámaras trampa. Está diseñado específicamente para este tipo de datos y puede retener más información que un Darwin Core Archive (Bubnicki et al. 2023). Algunos data management systems lo soportan directamente como formato de exportación (ver la Tabla 11), lo que reduce la necesidad de transformación de datos al publicar a través de GBIF.

Consulte el sitio web de Camtrap DP para ver definiciones de términos, recomendaciones y ejemplos.

No toda la información en un Camtrap DP publicado está actualmente cosechada por GBIF. El modelo de datos GBIF requiere que se transforme a Darwin Core antes de la ingesta. Este proceso es proporcionado por la función write_dwc() en el paquete de software R camtraptor (Oldoni et al. 2023). Esta función implementa las recommendations sugeridas en este documento. GBIF podrá procesar más información a partir de un Camtrap DP publicado una vez que haya implementado un nuevo modelo de datos (GBIF Secretariat 2022).

4.4. Archivo Darwin Core

4.4.1. ¿Por qué no un conjunto de datos de eventos de muestreo?

Con sus eventos jerárquicos (despliegues, secuencias) y observaciones resultantes, parece lógico para expresar datos de cámara trampa como https://www. bif.org/sampling-event-data[Datos de muestreo de evento] con un Event core (ver la Tabla 13) y una Occurrence extension (ver la Tabla 14). Nos permite proporcionar información detallada (aunque repetida) sobre cada tipo de evento y ofrece la posibilidad de añadir una Measurement Or Facts extension con alineación y otra información (principalmente pertinente para el despliegue).

Desafortunadamente también nos impide expresar información sobre los archivos multimedia como una extensión, ya que el diseño de un esquema estrella de Darwin Core Archive no permite relacionar la Occurrence extension con una Audubon Media Description extension. Es técnicamente posible vincular la Audubon Media Description extension con el Event core, pero los archivos no estarían enlazados a las ocurrencias y no aparecerían en páginas de ocurrencia en GBIF.org. La única opción disponible para expresar información sobre los medios en un nivel de ocurrencia sería utilizar dwc:associatedMedia, que lo reduciría a una (lista de) URL. No se puede proporcionar licencia, tipo multimedia, método de captura, cajas de delimitación, etc.

Tabla 13. Event core con datos de cámara trampa. Contiene tres tipos de eventos: un despliegue (con una duración de días), una secuencia (con una duración de segundos) y dos eventos basados en archivos multimedia (con una única marca de tiempo). Tenga en cuenta que la información de la ubicación es la misma para todos los eventos. Fuente.
eventType eventID parentEventID eventDate Location information

despliegue

00a2c20d

2020-05-30T02:57:37Z/ 2020-07-01T09:41:41Z

51.496, 4.774

secuencia

79204343

00a2c20d

2020-06-12T04:04:29Z/ 2020-06-12T04:04:55Z

51.496, 4.774

multimedia

e68deaed

79204343

2020-06-12T04:04:29Z

51.496, 4.774

multimedia

c5efbcb3

79204343

2020-06-12T04:04:30Z

51.496, 4.774

Tabla 14. Occurrence extension con datos de cámara trampa. Contiene tres observaciones: dos clasificaciones media-based de Anas platyrhynchos y una clasificación basada en eventos de Ardea cinerea. La información sobre los archivos multimedia sólo se puede proporcionar en dwc:associatedMedia. Fuente.
occurrenceID eventID scientificName associatedMedia

e68deaed_2

e68deaed

Anas platyrhynchos

https://multimedia.agouti.eu/assets/e68deaed-a64e-4999-87a3-9aa0edf5970d/file

c5efbcb3_2

c5efbcb3

Anas platyrhynchos

https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

05230014

79204343

Ardea cinerea

https://multimedia.agouti.eu/assets/e68deaed-a64e-4999-87a3-9aa0edf5970d/file | https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

Por lo tanto, recomendamos expresar los datos de las cámaras trampa como un conjunto de datos de Ocurrencia con un Occurrence core y una Audubon Media Description extension (ver la Tabla 15 y la Tabla 16). Esto trata a los archivos multimedia como registros de datos primarios, que es importante dado que son la evidencia en la que se basan las observaciones. La jerarquía de eventos también se puede retener en gran medida, ya que el Occurrence core permite agrupar ocurrencias en eventos (dwc:eventID) y eventos originales (dwc:parentEventID). Al proporcionar el identificador [event]/secuencia en dwc:eventID e identificador de despliegue en dwc:parentEventID, las observaciones pueden agruparse como lo harían en un Event core y GBIF.org creará automáticamente páginas de eventos para ellos (ver la Figura 5). Sin embargo, la información sobre la duración del evento no se puede proporcionar, pero la eventDate y el samplingEffort pueden retener la mayor parte de ella. La información sobre la ubicación de despliegue, el hábitat, el protocolo de muestreo, etc. se repite para cada observación en el despliegue.

Recomendaciones de términos para el Occurrence core y Audubon Media Description extension se proporcionan en la Sección 4.4.2 y en la Sección 4.4.3 respectivamente.

Tabla 15. Occurrence core con datos de cámara trampa. Contiene las mismas tres observaciones que en la Tabla 14. El identificador de evento/secuencia se proporciona en dwc:eventID, el identificador de despliegue en dwc:parentEventID. Fuente.
occurrenceID eventID parentEventID scientificName eventDate Location information

e68deaed_2

79204343

00a2c20d

Anas platyrhynchos

2020-06-12T04:04:29Z

51.496, 4.774

c5efbcb3_2

79204343

00a2c20d

Anas platyrhynchos

2020-06-12T04:04:30Z

51.496, 4.774

05230014

79204343

00a2c20d

Ardea cinerea

2020-06-12T04:04:29Z/ 2020-06-12T04:04:55Z

51.496, 4.774

Tabla 16. La Audubon Media Description extension con datos de la cámara trampa. Contiene los mismos dos archivos multimedia referenciados en la Tabla 14, pero ahora permite compartir más información por archivo. Fuente.
occurrenceID identifier accessURI CreateDate captureDevice rights

e68deaed_2

e68deaed

https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

2020-06-12T04:04:29Z

Reconyx-HF2X

https://creativecommons.org/licenses/by/4.0/legalcode

c5efbcb3_2

c5efbcb3

https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

2020-06-12T04:04:30Z

Reconyx-HF2X

https://creativecommons.org/licenses/by/4.0/legalcode

05230014

e68deaed

https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

2020-06-12T04:04:29Z

Reconyx-HF2X

https://creativecommons.org/licenses/by/4.0/legalcode

05230014

c5efbcb3

https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file

2020-06-12T04:04:30Z

Reconyx-HF2X

https://creativecommons.org/licenses/by/4.0/legalcode

example event page
Figura 5. Captura de pantalla de una página del evento creada por GBIF.org a partir de la información proporcionada en un Occurrence core (basado en la fila 3 en la Tabla 15). Observe el ID de evento (una secuencia) y el ID de evento original (un despliegue).

4.4.2. Núcleo de registro

Como se describe above, recomendamos usar un Occurrence core para expresar los datos de cámaras trampa como un Darwin Core Archive. Ver la Tabla 17 para recomendaciones de términos. Estas recomendaciones se alinean con los requisitos de calidad de GBIF para los conjuntos de datos de Ocurrencia (GBIF Secretariat 2020) y utilizan la misma terminología (Requerido, Muy recomendable, Compartir si está disponible).

Tenga en cuenta que el Occurrence core sólo debe contener animal observations, de modo que las clasificaciones blanks, vehículos y preferiblemente los humans sean filtradas. El número de registros dependerá del tamaño del estudio, el esfuerzo de clasificación (¿todos los archivos están clasificados?), la precisión de clasificación (ver la Tabla 9) y si se utilizó una media- or event-based classification. Especialmente las clasificaciones basadas en los archivos multimedia pueden aumentar sustancialmente el número de ocurrencias con pocos beneficios adicionales para la investigación ecológica. Camtrap DP está diseñado para ambos, pero al publicar como un Darwin Core Archive, solo recomendamos proporcionar observaciones basadas en eventos si están disponibles.

Tabla 17. Términos recomendados para utilizar cuando se expresan datos de cámaras trampa como un Occurrence core. Fuente.
Término Estado Valor de ejemplo

type

Compartir si está disponible

Imagen estática

license

Compartir si está disponible

https://creativecommons.org/publicdomain/zero/1.0/legalcode

rightsHolder

Compartir si está disponible

INBO

datasetID

Compartir si está disponible

7cca70f5-ef8c-4f86-85fb-8f070937d7ab

collectionCode

Compartir si está disponible

Agouti

datasetName

Compartir si está disponible

Muestra de: MICA - Observaciones de las cámaras trampa sobre ratas almizcleras y nutrias en Bélgica, Países Bajos y Alemania

basisOfRecord

Requerido

MachineObservation

dataGeneralizations

Compartir si está disponible

coordinates rounded to 0.001 degree

occurrenceID

Requerido

05230014

individualCount

Muy recomendado

1

sex

Compartir si está disponible

lifeStage

Compartir si está disponible

adulto

behavior

Compartir si está disponible

occurrenceStatus

Muy recomendado

presente

occurrenceRemarks

Compartir si está disponible

organismID

Compartir si está disponible

eventID

Muy recomendado

79204343

parentEventID

Muy recomendado

00a2c20d

eventDate

Requerido

2020-06-12T04:04:29Z/2020-06-12T04:04:55Z

habitat

Compartir si está disponible

Área de Campine con una serie de valles fluviales con praderas valiosas

samplingProtocol

Muy recomendado

cámara trampa

samplingEffort

Compartir si está disponible

2020-05-30T02:57:37Z/2020-07-01T09:41:41Z

eventRemarks

Compartir si está disponible

cámara trampa sin cebo cerca sendero de animales

etiquetas:posición:arriba arroyo

locationID

Compartir si está disponible

e254a13c

locality

Compartir si está disponible

B_HS_val 2_processiepark

minimumDepthInMeters

Compartir si está disponible

maximumDepthInMeters

Compartir si está disponible

minimumDistanceAboveSurfaceInMeters

Compartir si está disponible

1.30

maximumDistanceAboveSurfaceInMeters

Compartir si está disponible

1.30

decimalLatitude

Muy recomendado

51.496

decimalLongitude

Muy recomendado

4.774

geodeticDatum

Muy recomendado

EPSG:4326

coordinateUncertaintyInMeters

Muy recomendado

187

coordinatePrecision

Compartir si está disponible

0.001

identifiedBy

Compartir si está disponible

Peter Desmet

dateIdentified

Compartir si está disponible

2023-02-02T13:57:58Z

identificationRemarks

Compartir si está disponible

clasificado por un humano

taxonID

Compartir si está disponible

https://www.checklistbank.org/dataset/COL2023/taxon/GCHS

scientificName

Requerido

Ardea cinerea

kingdom

Muy recomendado

type

La naturaleza del recurso. Utilice StillImage si el registro se basa en una imagen o secuencia de imágenes, MovingImage si se basa en un video. Uno también puede usar el término más amplio Imagen para todos los registros.

licencia

La licencia bajo la cual se comparte el registro de datos. Probablemente esta será la misma licencia que la utilizada para el conjunto de datos pero es posible desviar (Waller 2020). Para permitir un uso amplio, recomendamos publicar datos bajo una exención Creative Commons Zero y proporcionarlo como una URL: https://creativecommons.org/publicodomain/cero/1.0/legalcode. En Camtrap DP, este término corresponde a la ruta de la licencia que tiene los datos del ámbito en el package.licenses, aunque allí se especifica para el conjunto de datos en lugar de por registro.

rightsHolder

La persona u organización (es decir, participante) que posee o gestiona los derechos sobre el recurso. Con toda probabilidad, la organización que decidió bajo qué licencia se publican los datos y/o el editor de los datos (es decir, la organización seleccionada como editora al registrar un conjunto de datos con GBIF). Utilice un acrónimo si la organización tiene uno. En Camtrap DP, este término corresponde con el título del colaborador que tiene el rol tendedordeDerechos en package.contributors.

datasetID & datasetName

Respectivamente el identificador y el nombre del conjunto de datos. Para dwc:datasetID recomendamos usar una URL o identificador estable que permita a los usuarios encontrar información sobre el conjunto de datos/estudio de origen. En orden de preferencia: conjunto de datos DOI (https://doi.org/10. 5468/5tb6ze), estudio URL (http://n2t. et/ark:/63614/ w12001317), o identificador de estudio utilizado por el data management system. En Camtrap DP, este término corresponde con package.id, a menos que haya un identificador mejor disponible (p. ej., un DOI). dwc:datasetName debe referirse al título del conjunto de datos/estudio como se refiere por dwc:datasetID. Recomendamos usar el mismo valor para el título en los metadatos. En Camtrap DP, este término corresponde con package.title.

collectionCode

El nombre o acrónimo que identifica la recolección o conjunto de datos de los que se derivó el registro. Tradicionalmente se utiliza para indicar una colección física, recomendamos proporcionar el nombre del data management system (es decir, colección virtual) de la que derivó el registro. Esto permite a los usuarios buscar registros del mismo sistema de gestión de datos a través de conjuntos de datos. Valores recomendados: Agouti, Camelot, eMammal, Trapper, Wildlife Insights, etc. En Camtrap DP, este término corresponde al título de la fuente (aplicable) en package.sources.

basisOfRecord

La naturaleza específica del registro. Establecer en MachineObservation para todos los registros. Mientras que los humanos deciden cuándo y cuándo desplegar una cámara trampa, y los humanos o las máquinas (IA) pueden classify archivos, la captura del registro es realizada por una máquina que responde a un sensor. Esto es críticamente diferente de las observaciones humanas, donde un humano controla activamente la decisión de registrar o no un organismo.

dataGeneralizations

Las acciones emprendidas para hacer que los datos publicados sean menos específicos o completos que en su forma original. Recomendamos describir concisamente aquí qué sensitive information del registro fue generalizada y cómo. Tenga en cuenta que esta información se puede proporcionar a nivel de registro y no necesita aplicarse a todo el conjunto de datos. Si la información importante fue omitida por completo, utilice dwc:informationWithheld.

Ejemplos:

coordenadas redondeadas a 0,001 grados
nombre científico generalizado a género
occurrenceID

Un identificador para la observación. Utilice un istable unique identifier. En Camtrap DP, este término se corresponde con observations.observationID.

individualCount

El número de individuals. Tenga en cuenta que este número depende de la precision. En Camtrap DP, este término corresponde con observations.count.

sex

El sexo de los individuos observados. Recomendamos usar los valores controlados macho y hembra, que se basan en el Camtrap DP y son compatibles con el vocabulario de sexo GBIF [https://rs. bif.org/ vocabulary/gbif/sex.xml]. En Camtrap DP, este término corresponde con GBIF Sex vocabulary. In Camtrap DP, this term corresponds with observations.sex.

lifeStage

La etapa de vida de los individuos observados. Recomendamos utilizar los valores controlados adulto, subadulto y juvenil, que se basan en el Camtrap DP y son compatibles con el vocabulario GBIF LifeStage. En Camtrap DP, este término se corresponde con observations.lifeStage.

behavior

El comportamiento dominante de los individuos observados. Recomendamos el uso de valores controlados existentes o los suyos propios (por ejemplo, pastando, paciendo, hocicando, vigilando, corriendo, caminando). En Camtrap DP, este término corresponde con observations.behavior.

occurrenceStatus

Una declaración acerca de la presencia o ausencia del taxón en una ubicación. Cuando se reduce a observaciones de especies (filtrando blanks, etc.), los datos de la cámara trampa solo contienen registros de presencia. Establecer en presentar para todos los registros.

occurrenceRemarks

Los comentarios o notas sobre la observación. Estas normalmente son notas (a veces en el idioma nativo del autor) sobre la observación y/o el individuo observado que no fue o no pudo ser registrado en otro campo. Esta información es potencialmente útil para publicar, pero puede contener sensitive information. En Camtrap DP, este término se corresponde con observations.observationComments.

organismID

Un identificador para un individuo observado y conocido que fue reconocido por el anillo de colores, la etiqueta del oído, el patrón de la piel u otras características. Las observaciones con dwc:organismID normalmente tienen dwc:individualCount de 1, a menos que el dwc:organismID se refiera a un grupo conocido. A menos que un identificador único esté disponible y sea conocido por el individuo recomendamos usar el código/identificador asignado dentro del estudio de cámaras trampa al individuo, permitiendo a los usuarios encontrar todas las observaciones de este individuo dentro del conjunto de datos. En Camtrap DP, este término corresponde con observations.individualID.

identificadorDelEvento

Un identificador para el evento al que pertenece la observación. Recomendamos proporcionar el identificador para el [event] (normalmente una secuencia) como se usa para una event-based classification. Usando un Núcleo de ocurrencia, los eventos no tendrán sus propios registros, pero proporcionar su identificador en dwc:eventID permite a los usuarios encontrar todas las observaciones (y medios) para un evento específico. Utilice un stable unique identifier. Tenga en cuenta que GBIF.org agrupará automáticamente observaciones con el mismo dwc:eventID que pertenecen juntos. En Camtrap, este término se corresponde con observations.eventID.

parentEventID

Un identificador para un evento más amplio que los identificados por eventID. Recomendamos proporcionar el identificador del despliegue. Usando un Ocurrence core, los despliegues no tendrán sus propios registros, pero proporcionar su identificador en dwc:parentEventID permite a los usuarios encontrar todas las observaciones (y archivos multimedia) para un despliegue específico. Utilice un identificador único estable. Tenga en cuenta que GBIF.org agrupará automáticamente observaciones con el mismo dwc:parentEventID que pertenecen juntos. En Camtrap DP, este término se corresponde con observations.deploymentID.

fechaDelEvento

La fecha, la fecha-hora o el intervalo fecha-hora durante el que ocurrió el [event]. Recomendamos utilizar una única marca de tiempo para media-based classifications y un intervalo que consista en las marcas de tiempo del inicio y del final del [event] como se identifica por la eventID para event-based classifications. Escriba las marcas de tiempo en formato ISO 8601 (AAAA-MM-DDTHH:MM:SS), utilice / para indicar un intervalo e incluir la zona horaria (+02:00) o convertir e indicar como UTC (Z). En Camtrap DP, este término corresponde a observations.eventStart y observations.eventEnd, u observations.eventStart si ambos son iguales.

Ejemplos:

2020-07-29T05:38:55Z/2020-07-29T05:39:00Z
2020-07-29T05:38:55Z
2020-07-29T07:38:55+02:00
habitat

Una categoría o descripción del hábitat en el que ocurrió el [event]. Este es normalmente el hábitat en el momento de la despliegue, con valores repetidos para todos los registros de este despliegue. Los valores pueden ser controlados, idealmente utilizando un sistema de clasificación existente o descripciones de texto libre. En Camtrap DP, este término corresponde con deployments.habitat.

protocoloDeMuestreo

Los métodos o protocolos utilizados durante el [event]. Recomendamos utilizar el valor controlado cámara trampa. Esto permite a los usuarios buscar registros con este protocolo a través de conjuntos de datos.

samplingEffort

La cantidad de esfuerzo aumentó durante el [event]. Recomendamos proporcionar el intervalo de fecha y hora que se desplegó la cámara trampa, utilizando las mismas convenciones de formato que eventDate. En Camtrap DP, este término corresponde a deployments.deploymentStart y deployments.deploymentEnd].

eventRemarks

Los comentarios o notas sobre el [event]. Estas normalmente son notas (a veces en el idioma nativo del autor) sobre el despliegue que no fue o no pudo ser registrado en otro campo. Esta información es potencialmente útil para publicar, pero puede contener sensitive information. También recomendamos este término para proporcionar otra información (estructurada) asociada al despliegue, tales como uso de cebo, feature type o etiquetas, como valores separados por barras verticales (|). En Camtrap DP, este término corresponde con deployments.deploymentComments y se relaciona con deployments.baitUse, deployments.featureType y deployments.deploymentTags.

Ejemplos:

cámara trampa con cebo cerca de madriguera
cámara trampa sin cebo | etiquetas: posición:sobre arroyo
mal funcionamiento de cámara el 29/06/2020
locationID

Un identificador para la [location]. Este identificador permite a los usuarios encontrar todas las observaciones (y archivos multimedia) para una ubicación específica (a través de despliegues). Utilice un stable unique identifier. En Camtrap DP, este término corresponde con deployments.locationID.

locality

término:dwc[dwc:locality] (Localidad)

El nombre de la [location]. Este es típicamente un nombre o código asignado dentro del estudio de la cámara trampa. En Camtrap DP, este término corresponde a deployments.locationName.

minimumDepthInMeters & maximumDepthInMeters

La profundidad (en metros) debajo de la superficie local. Para estudios de cámara trampa (marinos), esta es la depth a la que se despliega la cámara. Recomendamos proporcionar una camera depth> o <<camera-height,camera height, no ambos. En Camtrap DP, este término corresponde a deployments.cameraDepth.

minimumDistanceAboveSurfaceInMeters & maximumDistanceAboveSurfaceInMeters

La altura (en metros) sobre una superficie de referencia. Para estudios de cámara trampa, esta es la height a la que se despliega la cámara. Recomendamos proporcionar una camera depth o camera height, no ambos. En Camtrap DP, este término corresponde a deployments.cameraHeight.

decimalLatitude & decimalLongitude

La latitud y longitud geográfica de la [location], en grados decimales. Los valores de latitud están entre -90 y 90, valores de longitud están entre -180 y 180. Para los estudios de cámaras trampa, estos se obtienen normalmente por GPS y se registran en el data management system. Recomendamos proporcionar las coordenadas almacenadas en el sistema de gestión de datos, a menos que necesiten redondearse/generalizarse para proteger sensitive information. En Camtrap DP, estos términos corresponden a deployments.latitude y deployments.longitude respectivamente.

geodeticDatum

El sistema de referencia espacial utilizado para las coordinates geográficas. Para las coordenadas obtenidas por GPS, esto es normalmente EPSG:4326 (es decir, WGS84) (Chapman and Wieczorek 2020). En Camtrap DP, WGS84 se implica para los términos deployments.latitude y deployments.longitude.

coordinateUncertaintyInMeters

La distancia horizontal (en metros) desde las coordinates geográficas describen el círculo más pequeño que contiene la [location]. Recomendamos 30 metros como límite inferior razonable para las coordenadas obtenidas por GPS, pero consulte Sección 3.4.2 para detalles sobre qué elementos contribuyen a la incertidumbre. Las coordenadas Generalized/rounded en particular aumentarán la dwc:coordinateUncertaintyInMeters. En Camtrap DP, este término se corresponde con deployments.coordinateUncertainty.

coordinatePrecision

La precisión decimal de las coordinates> geográficas, si se conoce. Esta información es conocida y recomendamos proporcionarla para coordenadas generalized/rounded (p. ej., 0,001 para las coordenadas que fueron redondeadas a 3 decimales). En Camtrap DP, este término se corresponde con package.coordinatePrecision, aunque allí se especifica para el conjunto de datos en lugar de por registro.

identificadoPor

La persona o modelo de clasificación de especie que identificó a los individuos observados y le asignó el <section-scientificname,nombreCientífico>>. Recomendamos proporcionar un nombre único: el de la persona o modelo que hizo la clasificación (más reciente). Aunque clasificar puede ser más amplio que asignar un nombre científico, es probable que involucre ese aspecto para observaciones animales. Tenga en cuenta que este término contiene datos personales. En Camtrap DP, este término corresponde a observations.classifiedBy.

Ejemplos:

Peter Desmet
Modelo de especies de Europa occidental versión 1
anonimizado:3eb30aa
dateIdentified

La fecha o fecha-hora en la que se realizó la identificación. Recomendamos proporcionar una única marca de tiempo: la de la clasificación hecha por la persona o modelo indicados en identificado por. Esta información es normalmente registrada por el sistema de gestión de datos. Escriba las marcas de tiempo en formato ISO 8601 (AAAA-MM-DDTHH:MM:SS), e incluya la zona horaria (+02:00) o convierta e indique como UTC (Z). En Camtrap DP, este término corresponde con observations.classificationTimestamp.

identificationRemarks

Los comentarios o notas sobre la identificación. Recomendamos utilizar este término para proporcionar información sobre si la clasificación se hizo por un humano o modelo de clasificación de especie así como el grado de seguridad si está disponible (a menudo registrado para clasificación de IA). En Camtrap DP, este término se relaciona con observations.classificationMethod y observations.classificationProbability.

Ejemplos:

clasificado por un humano
clasificado por una máquina con un grado de certeza de 89%
taxonID

Un identificador para nombreCientífico. Este identificador permite a los usuarios encontrar todas las observaciones (y archivos multimedia) para un taxón específico. Utilice un identificador único estable, preferentemente uno asignado por una fuente autoritativa. En Camtrap DP, este término corresponde a la IDdeTaxón del taxón correspondiente en package.taxonomic.

scientificName

El nombre científico de los individuos observados. En Camtrap DP, este término corresponde con observations.scientificName.

kingdom

El reino en el que el taxón con el que se clasifica el nombreCientífico. Permite que servicios como coincidencias de nombres de especies de GBIF se desambigüen entre homónimos. Probablemente Animalia para todos los registros, ya que las cámaras trampa casi nunca contienen clasificaciones de plantas, hongos u otros reinos.

4.4.3. Extensión de Descripción Multimedia de Audubon

Como se describe anteriormente, recomendamos usar una Audubon Media Description extension para expresar los datos de la cámara trampa como un Darwin Core Archive. Ver la Tabla 18 para recomendaciones de términos.

Tenga en cuenta que la Audubon Media Description extension puede contener duplicados, una diferencia importante con los archivos multimedia de Camtrap DP media donde cada archivo sólo aparece una vez. La IDdeOcurrencia repetida es el resultado de una única observación basada en eventos que se relaciona con múltiples archivos multimedia (p. ej., la observación 05230014 en la identificadores repetidos son el resultado de que un archivo multimedia sea la fuente para múltiples observaciones (p. ej., múltiples especies observadas en la misma imagen, tal como en el archivo multimedia e68deaed en la Tabla 16). Sin embargo, la extensión debe contener combinaciones de IDdeOcurrencia+identificador.

Tabla 18. Términos recomendados para usar al expresar los datos de las cámaras trampa como una Audubon Media Description extension. Fuente.
Término Estatus Valor de ejemplo

occurrenceID

Requerido

05230014

identifier

Compartir si está disponible

6d65f3e4

type

Compartir si está disponible

StillImage

comments

Compartir si está disponible

marcado como favorito

rights

Muy recomendado

https://creativecommons.org/licenses/by/4.0/legalcode

CreateDate

Compartir si está disponible

2020-06-12T06:04:32+02:00

captureDevice

Compartir si está disponible

Reconyx-HF2X

resourceCreationTechnique

Compartir si está disponible

detección de movimiento

accessURI

Requerido

https://multimedia.agouti.eu/assets/6d65f3e4-4770-407b-b2bf-878983bf9872/file

format

Compartir si está disponible

imagen/jpeg

serviceExpectation

Compartir si está disponible

en línea

occurrenceID

Una clave foránea para el IDdeOcurrencia en el Occurrence core, para indicar la relación entre la observación y los archivos multimedia en los que se basa. Este término puede contener duplicados, ya que esta es una relación de muchos-a-muchos (ver nota en la Sección 4.4.3). En Camtrap DP, este término se corresponde con observations.observationID, pero la relación entre observations y media puede establecerse de varias maneras: ya sea directamente a través de observations.mediaID o seleccionando archivos que tienen el mismo media.deploymentID como la observación y un media.timestamp que cae entre las observations.eventStart and observations.eventEnd de la observación.

identificador

Un identificador para el archivo multimedia. Utilice un identificador único estable. Este término puede contener duplicados, ya que esta es una relación de muchos-a-muchos (ver nota en la Sección 4.4.3). En Camtrap DP, este término se corresponde con media.mediaID.

type

La naturaleza del recurso. Utilice StillImage para imágenes, MovingImage para videos. No utilice dcterms:type, porque ese término espera un valor URL.

comentarios

Los comentarios o las notas sobre el archivo multimedia. En contraste con observacionesDelEvento y observacionesDeOcurrencia, las notas sobre los propios archivos multimedia rara vez se registran en sistemas de gestión de datos. El término podría utilizarse para indicar si un archivo multimedia fue marcado como favorito o digno de atención. En Camtrap DP, este término corresponde a media.mediaComments y se relaciona con media.favorite.

derechos

La licencia bajo la cual se comparte el archivo multimedia. Tenga en cuenta que esto aplica al archivo referenciado en accessURI, no los datos en la Audubon Media Description extension (estos caen bajo la licencia de conjunto de datos). Recomendamos utilizar la misma licencia para todos los archivos multimedia. Para permitir un uso amplio, recomendamos publicar archivos multimedia bajo una exención Creative Commons Cero o Creative Commons Atribution 4.0 Internacional license y proporcionarla como una URL: https://creativecommons.org/publicdomain/zero/1.0/legalcode o https://creativecommons.org/licenses/by/4.0/legalcode respectivamente. No utilizar https://ac. dwg.org/termlist/#dc_rights[dc:rights], ya que ese término espera un valor literal (la declaración de derechos de autor de texto completo). En Camtrap DP, este término corresponde a la ruta de la licencia que tiene el multimedia del ámbito en el package.licenses, aunque allí se especifica para el conjunto de datos en lugar de por registro.

fechaDeCreación

La fecha-hora en la que se creó el archivo multimedia. Esta información normalmente se extrae de los metadatos EXIF por el sistema de gestión de datos. Escriba las marcas de tiempo en formato ISO 8601 (AAAA-MM-DDTHH:MM:SS), e incluya la zona horaria (+02:00) o convierta e indique como UTC (Z). En Camtrap DP, este término corresponde con media.timestamp.

dispositivoDeCaptura

Los dispositivos utilizados para crear el archivo multimedia. Recomendamos proporcionar la marca y el modelo de la cámara (p. ej., Reconyx-HF2X). En Camtrap DP, este término corresponde con deployments.cameraModel.

técnicaDeCreaciónDeRecurso

Los métodos utilizados para crear o alterar el archivo multimedia. Recomendamos usar este término para proporcionar el método disparador que fue usado para capturar el archivo multimedia, como valores controlados: detección de actividad o intervalo de tiempo. En Camtrap DP, este término corresponde con media.captureMethod.

accesoURI

El URI (Identificador Uniforme de Recursos) que proporciona acceso al archivo multimedia. Aunque el término permite apuntar a las rutas de archivos relativa o almacenamiento sin conexión, recomendamos encarecidamente proporcionar la URL de http/https que sirve el archivo multimedia, si está disponible (ver la Sección 3.3.3). Utilice una URL http/https que sirva el archivo multimedia directamente (no una página HTML que lo incruste), para que se pueda mostrar en las páginas de ocurrencia en GBIF.org. Las imágenes de cámaras trampa son típicamente lo suficientemente pequeñas como para que no sea necesario servir una versión reducida del archivo. En Camtrap DP, este término corresponde a media.filePath.

expectativaDeServicio

Las expectativas de servicio que los usuarios pueden tener del accessURI. Recomendamos utilizar los valores controlados en línea para archivos multimedia accesibles públicamente a través de http/https y autenticar para archivos multimedia que se mantienen privados sobre http/https (ver la Sección 4.2.2.2). En Camtrap DP, estos valores relacionados con TRUE [Verdadero] y FALSE [Falso] respectivamente en media.filePublic.

formato

El formato de archivo del archivo multimedia. Recomendamos proporcionar el tipo de medio (tipo MIME) usando los valores controlados imagen/jpeg, video/mp4 o video/mpeg del Vocabulario Controlado Audiovisual Core Controlado para Dublin Core. No utilice dcterms:format, ya que ese término espera un valor URL. En Camtrap DP, este término corresponde con media.fileMediatype.

Reconocimientos

Damos las gracias a las siguientes personas por hacer sugerencias a esta guía y/o proporcionar soporte técnico: Stephen Formel, Donald Hobern, Kyle Copas, Laura Russell, Matt Blissett y miembros del equipo de desarrollo de Camtrap DP.

Glosario

actividad

Movimiento delante de una cámara. El movimiento puede provocar un disparo cuando se cumplen ciertas condiciones (p. ej. dentro de la detection zone y fuera del quiet period). Las cámaras trampa son típicamente deployed para capturar la actividad de la vida silvestre, pero también pueden registrar movimientos de humanos, vehículos o vegetación.

alineación

Colocación física de una cámara. Consiste en camera height, camera depth, camera tilt y camera heading.

inteligencia artificial

Capacidad de las máquinas para percibir e inferir información, en lugar de los humanos/animales. En la investigación de cámaras trampa, la IA se aplica principalmente como machine learning para realizar tareas de computer vision. Vea también la Sección 3.5.3.

cebo

Atrayente utilizado para animar a los animales a investigar una [location] o un punto específico dentro de la detection zone. Los cebos pueden ser auditivos, olfativos, visuales, o alguna combinación de estas. Es útil saber que se utilizó un cebo en un despliegue para realizar los análisis, ya que puede alterar el comportamiento natural de los animales. Se puede expresar como una descripción categórica (p. ej., acústica, visual, aroma) o un booleano. También se conoce como señuelo (Meek et al. 2014). deployments.baitUse en Camtrap DP.

en blanco

Media sin objetos de interés. Los "en blanco" a menudo son el resultado de triggers falsos como movimientos de la vegetación o luz fluctuante. Marcado como tal cuando se classifying para facilitar excluirlos de las consultas.

cámara

Dispositivo diseñado para capturar automáticamente multimedia de actividad (salvaje), normalmente triggered por una combinación de calor y movimiento. De una cierta marca y modelo y singularmente identificable por ejemplo, por número de serie. También se la conoce como cámara trampa, cámara de caza, cámara de sendero, cámara de exploración o dispositivo.

profundidad de la cámara

Profundidad de la cámara (bajo el agua), un componente de la alineación de la cámara. Normalmente se expresa en metros bajo la superficie de agua local. deployments.cameraDepth en Camtrap DP.

altura de la cámara

Altura de la cámara sobre el suelo, un componente de la alineación de la cámara. Se puede expresar en metros sobre el suelo o como una descripción categórica (altura de la rodilla ~ 0,5m, altura del pecho ~ 1,5m, dosel ~ 3+m en Ahumada et al. (2020)). deployments.cameraHeight en Camtrap DP.

inclinación de la cámara

Orientación hacia arriba o hacia abajo de la cámara, un componente de la alineación de la cámara. Se puede expresar en grados o como una descripción categórica (paralelo = 0°, apunta hacia abajo = -90° en Ahumada et al. (2020)). deployments.cameraTilt en Camtrap DP.

dirección de cámara

Orientación cardinal horizontal de la cámara, un componente de la alineación de la cámara. Se puede expresar en grados desde el norte o como direcciones cardinales (N, NO, etc.). deployments.cameraHeading en Camtrap DP.

Camtrap DP

Paquete de datos de cámaras trampa. Un data exchange format de cámaras trampa desarrollado comunitariamente, mantenido bajo los Estándares de Información de Biodiversidad (TDWG). Ver también Sección 4.3, Bubnicki et al. (2023) y el sitio web de Camtrap DP.

clasificación

El acto de clasificar archivos multimedia de cámaras trampa resulta en observations. No debe confundirse con la clasificación taxonómica. Se puede realizar en diferentes etapas y con diferentes niveles de precisión p. ej., 1. El archivo no contiene objetos de interés (es decir, en blanco), 2. el objeto de interés es humano/vehículo/animal o desconocido, 3. el animal es miembro de ciertos taxones (p. ej., Sus scrofa, Rodentia), 4. el animal es de cierto sexo/etapa de vida, se conoce al individuo x o muestra determinado comportamiento. La clasificación suele ser un trabajo intensivo y, por lo tanto, a menudo asistido por computer vision, volunteers y/o sequences de clasificación, en lugar de media files individuales. También referido como clasificación de imágenes, anotación o identificación. Ver también la Sección 3.5.1.

ciencia ciudadana

Investigación científica realizada con la participación del público. También referido como ciencia comunitaria, participación, colaboración abierta, o monitoreo voluntario. En la investigación de cámaras trampa, los científicos pueden participar en el despliegue y clasificación. Ver también la Sección 3.5.2.

computación en la nube

Realizar tareas informáticas en una infraestructura informática distribuida (“servicio en la nube”). Normalmente a un costo (“pago por uso") a cambio de un mejor rendimiento y menor mantenimiento.

visión informática

Procesamiento, análisis y comprensión de archivos multimedia por máquinas para ayudar a la clasificación, desde seguimiento de objetos hasta identificación de especies. Una forma de inteligencia artificial, normalmente entrenada con machine learning.

covariables

Variables ecológicas que pueden afectar el comportamiento y la detección de animales (p.ej. bait use, feature type, habitat, cubierta de dosel). El registro de las covariables es importante para un análisis más profundo de los datos. Ver también la Sección 3.4.5.

formato de intercambio de datos

Formato utilizado para intercambiar datos entre sistemas (p. ej., Camtrap DP y Darwin Core Archive). Requiere transformación de datos del sistema fuente al formato y del formato al sistema de destino. Formatos de intercambio de datos bien diseñados facilitan un intercambio de datos FAIR, utilizan formatos abiertos y proporcionan definiciones claras. También se conoce como estándar de datos (cuando se aprueba a través de un proceso de ratificación).

sistema de gestión de datos

Aplicación de escritorio o en línea para gestionar los datos de las cámaras trampa. Normalmente incluye la funcionalidad de subir multimedia, añadir información de despliegue, classify imágenes, exportar datos, invitar participants y gestionar un proyecto. Ver también la Sección 3.6.

repositorio de datos

Sistema en línea para el archivo a largo plazo de datos (investigación) (p. ej., Zenodo, Dryad y el GBIF IPT). Diferente de un data management system que está diseñado para la gestión (y no necesariamente para el archivo a largo plazo) de datos.

Darwin Core Archive

Un data exchange format estandarizado y ampliamente respaldado para datos de biodiversidad mantenido conforme a los Estándares de Información de Biodiversidad (TDWG). Ver también la Sección 4.4 y la Guía de texto de Darwin Core.

despliegue

Colocación espacial y temporal de una cámara para muestrear imágenes de vida salvaje. Una cámara situada en una ubicación entre el 1 y el 15 de enero de 2020 es un despliegue diferente que la misma (o diferente) cámara situada en la misma ubicación entre el 15 y el 30 de enero de 2020. Los despliegues finalizan eliminando o reemplazando la cámara, cambiando su posición o cambiando su tarjeta de memoria. También se denomina punto de muestreo (Wearn and Glover-Kapfer 2017), sesión de la estación trampa (Hendry and Mann 2018) o visita (Newkirk 2016). deployments en Camtrap DP. Ver también la Sección 3.4.

grupo de despliegue

Agrupación lógica de deployments, basada en criterios espaciales, temporales o temáticos. Un despliegue puede pertenecer a múltiples grupos de despliegue. array (O’Connor et al. 2017), despliegue de cámara trampa (Meek et al. 2014), clúster (Resources Information Standards Committee RISC 2019), despliegues emparejados cite:[kolowski-2017, sitio y estratos (Sun et al. 2021) son grupos de despliegue espacial. campaña de muestreo (Lamelas-Lopez et al. 2020), evento de muestreo (Fegraus et al. 2011) y sesión son grupos de despliegue temporal. subproyecto (eMammal n.d.), encuesta (Resources Information Standards Committee RISC 2019; Tobler 2015) y etiquetas son grupos de despliegue temáticos. áreas de estudio (Newkirk 2016) pueden considerarse un grupo de despliegue o proyecto por derecho propio. deployments.deploymentGroups en Camtrap DP. Ver también la Sección 3.4.4.

distancia de detección

La distancia más lejana en la detection zone en la que la cámara detecta actividad. ddeployments.detectionDistance en Camtrap DP.

zona de detección

Área de una [location] en la que un sensor de cámara es capaz de detectar actividad.

evento

Acción que ocurre en una [location] específica por una duración específica. En investigación de cámaras trampa los eventos normalmente se refieren a actividad animal grabada a través de una o más triggers y formando una secuencia, pero otras definiciones pueden ser utilizadas al analizar datos. Los eventos se pueden indicar con observations.eventID, observations.eventStart y observations.eventEnd en Camtrap DP. En un Darwin Core Archive, los deployments también pueden considerarse eventos.

EXIF

Formato de archivo de imagen intercambiable. Un formato para almacenar metadatos sobre un archivo multimedia (p. ej., fecha y hora de creación, formato, resolución, velocidad de obturación, nivel de exposición, modelo de cámara), normalmente almacenado como parte del archivo multimedia. media.exifData en Camtrap DP.

FAIR

Los (meta)datos FAIR son (meta)datos que cumplen con los principios de ser localizables, accesibles, interoperables y reutilizables. Los principios FAIR ponen especial énfasis en mejorar la capacidad de las máquinas para encontrar y utilizar automáticamente los datos además de apoyar su reutilización por individuos. Ver Wilkinson et al. (2016).

tipo de característica

Descripción categórica de una característica física específica durante el despliegue, como madriguera, sitio de anidación o fuente de agua. deployments.featureType en Camtrap DP.

ruta del archivo

Serie que describe la ubicación de un archivo en un sistema de almacenamiento (p. ej., data/deployments.csv). Cuando se proporciona a través de http/https, el nombre de dominio y la ruta del archivo constituyen la URL del archivo (por ejemplo, https://raw.githubusercontent.com/tdwg/camtrap-dp/main/example/deployments.csv).

RGPD

Regulación General de Protección de Datos. Una regulación de la Unión Europea sobre la privacidad de la información, diseñada para mejorar el control y los derechos de las personas sobre su información personal. Vea la Sección 4.2.2.1.

tipo de hábitat

Descripción categórica del medio ambiente y vegetación de una ubicación. Existen sistemas de clasificación para expresar hábitat (European Environment Agency EEA 2021; IUCN 2019) o tipo de vegetación (Vegetation Subcommittee 2016). deployments.habitat en Camtrap DP.

imagen

Archivo multimedia estático grabado por una cámara. No tiene duración significativa ni audio.

intervalo de independencia

Duración mínima entre los disparos consecutivos para ser considerados pertenecientes a secuencias separadas. Esta duración (p. ej., 120 segundos) se puede definir en un sistema de gestión de datos para agrupar automáticamente archivos multimedia en secuencias. Esto es diferente del período de silencio, que es un ajuste de la cámara.

individuo

Organismo perceptible, normalmente un animal.

ubicación

Lugar físico donde se encuentra una cámara desplegada. Una ubicación puede ser descrita con un nombre y/o identificador y coordenadas en un sistema de referencia determinado (por ejemplo, latitud y longitud decimal en WGS84). También conocido como ubicación de la cámara (Newkirk 2016), estación (Van Berkel 2014; Zaragozí et al. 2015), estación de proyectos (WildCAM 2018) o estación de trampas (Hendry and Mann 2018). Ubicación de despliegue con un deployments.locationName, deployments.locationID, deployments.latitude, deployments.longitude, y deployments.coordinateUncertainty en Camtrap DP. Ver también la Sección 3.4.2.

aprendizaje automático

Técnica computacional que hace uso de datos (entrenamiento) (p. ej., https://lila.science/) y algoritmos para imitar la manera en que los humanos aprenden, mejorando gradualmente la precisión.

multimedia

Archivos multimedia (plural) capturados por una cámara. También se conoce como fotos (Newkirk 2016). media en Camtrap DP.

archivo multimedia

Un archivo (audio)visual capturado por una cámara. Puede ser una imagen o un <video>>. Un archivo multimedia normalmente tiene un identificador, nombre de archivo, marca de tiempo cuando fue creado y metadatos asociados (p. ej., EXIF). Para acceder a un archivo multimedia, uno necesita conocer su ruta de archivo y tener los derechos de acceso necesarios. Multimedia con media.mediaID, media.timestamp, media.fileName, media.filePath en Camtrap DP. Ver también la Sección 3.3.

tipo de medio

Expresión estandarizada de un formato de archivo (p. ej., imagen/jpeg para una imagen). Anteriormente conocido como tipo MIME. media.fileMediatype en Camtrap DP.

observación

Resultado de una clasificación, es decir, un registro de lo que se puede ver o escuchar en archivos multimedia. Tiene un tipo de observación para diferenciar entre animales y otras observaciones. observations en Camtrap DP. Ver también la Sección 3.5.

tipo de observación

Descripción categórica del tipo de observación. Registrado como parte de la clasificación, permitiendo diferenciar entre espacios en blanco, observaciones de seres humanos o vehículos y observaciones animales. observations.observationType en Camtrap DP.

organización

Entidad compuesta por una o más personas que comparten un propósito particular, como empresa, institución, asociación o sociedad. Las organizaciones se pueden asociar directamente con un proyecto (p. ej., como tenedor de derechos, publicista) o indirectamente a través de la afiliación de los participantes del proyecto. Una organización es un package.contributors en Camtrap DP.

participante

Persona asociada con un proyecto, realizando uno o más roles. La información del participante normalmente incluye el nombre y la información de contacto y está sujeta a RGPD. Las organizaciones también pueden ser consideradas participantes. También nombrado contribuidor, a veces usuario. Un participante es un package.contributors en Camtrap DP. Ver también la Sección 3.2.1.

rol

Función llevada a cabo por un participante en un proyecto, por ejemplo, un líder de proyecto, gestor de datos o voluntario que clasificó los medios. Los participantes pueden tener múltiples roles y los roles se asocian normalmente con diferentes derechos en un sistema de gestión de datos (p. ej., el derecho de invitar a nuevos participantes). También se conoce como tipo de participante. package.contributors.role en Camtrap DP. Ver también la Sección 3.2.1.

proyecto

Investigación científica realizada por un número de participantes, con un objetivo, metodología y alcance taxonómico, espacial y temporal definidos. El objetivo de los proyectos de cámaras trampa es normalmente estudiar y entender la vida salvaje. También nombrado estudio. package.project en Camtrap DP, donde un conjunto de datos está asociado con un y sólo un proyecto. Ver también la Sección 3.2.

período de silencio

Duración predefinida después de un disparo cuando la actividad detectada por el sensor de la cámara es ignorada. deployments.cameraDelay en Camtrap DP.

diseño de muestreo

Estrategia de despliegue de cámaras para facilitar un determinado propósito de investigación. Se puede expresar como una descripción categórica (p. ej., simple aleatorio, sistemático aleatorio, oportunista). package.project.samplingDesign en Camtrap DP.

sensibilidad

configuración de sensibilidad de activación utilizado en un sensor de cámara.

sensor

Dispositivo que detecta cambios en el entorno, tales como movimiento, calor, luz, sonido u otros estímulos. Las cámaras trampa modernas suelen usar un sensor integrado de infrarrojos pasivos (PIR) diseñado para detectar actividad basado en una combinación de calor y movimiento.

secuencia

Una serie de archivos multimedia tomados en rápida sucesión pero separados por un intervalo de tiempo menor que el intervalo de independencia establecido y que forma un registro animado de un evento. También se conoce como serie (Bayne et al. 2018).

configuración

El acto de desplegar una cámara en el campo. Involucra alineación, define los ajustes de la cámara y asegura la cámara para asegurar capturas de datos óptimas observations.cameraSetupType en Camtrap DP.

sitio

Área geográfica que contiene múltiples locations.

reconocimiento de especies

Identificación automática y clasificación de diferentes especies animales basada en datos visuales o auditivos capturados por cámaras trampa.

subproyecto

Tipo de deployment group utilizado para subdividir proyectos muy grandes en unidades más manejables.

disparo

Condición de Sensor que hace que una cámara se active y capture multimedia. También se utiliza para indicar la serie de media files consecutivos resultantes de ese disparo. Uno o más disparos forman una secuencia. También se denomina ráfaga.

UUID

Identificador único universal (UUID). Un tipo de identificador único globalmente que se puede generar sin una autoridad central de registro. Ejemplo: 6d65f3e4-4770-407b-b2bf-878983bf9872.

video

Archivo multimedia en movimiento grabado por una cámara. Tiene una duración específica y puede incluir audio.

Referencias

Ahumada J A, Fegraus E, Birch T, Flores N, Kays R, O’Brien T G, Palmer J, Schuttler S, Zhao J Y, Jetz W, Kinnaird M, Kulkarni S, Lyet A, Thau D, Duong M, Oliver R & Dancer A (2020) Wildlife Insights: A Platform to Maximize the Potential of Camera Trap and Other Passive Sensor Wildlife Data for the Planet. Environmental Conservation 47: 1–6. https://doi.org/10.1017/S0376892919000298

Alony I, Haski-Leventhal D, Lockstone-Binney L, Holmes K & Meijs L C P M (2020) Online volunteering at DigiVol: an innovative crowd-sourcing approach for heritage tourism artefacts preservation. Journal of Heritage Tourism 15: 14–26. https://doi.org/10.1080/1743873X.2018.1557665

Amatulli G, Domisch S, Tuanmu M-N, Parmentier B, Ranipeta A, Malczyk J & Jetz W (2018) A suite of global, cross-scale topographic variables for environmental and biodiversity modeling. Scientific Data 5: 180040. https://doi.org/10.1038/sdata.2018.40

Bayne E, MacPhail A, Copp C, Packer M & Klassen C (2018) Wildtrax. https://www.wildtrax.ca

Bennett J M, Calosi P, Clusella-Trullas S, Martínez B, Sunday J, Algar A C, Araújo M B, Hawkins B A, Keith S, Kühn I, Rahbek C, Rodríguez L, Singer A, Villalobos F, Ángel Olalla-Tárraga M & Morales-Castilla I (2018) GlobTherm, a global database on thermal tolerances for aquatic and terrestrial organisms. Scientific Data 5: 180022. https://doi.org/10.1038/sdata.2018.22

Bradley S (2017) MammalWeb – Participant guided development of a generalised citizen science web platform. http://edshare.soton.ac.uk/id/eprint/18337

Bubnicki J W, Churski M & Kuijper D P J (2016) TRAPPER: an open source web‐based application to manage camera trapping projects. Poisot T (Ed). Methods in Ecology and Evolution 7: 1209–1216. https://doi.org/10.1111/2041-210X.12571

Bubnicki J W, Norton B, Baskauf S J, Bruce T, Cagnacci F, Casaer J, Churski M, Cromsigt J P G M, Farra S D, Fiderer C, Forrester T D, Hendry H, Heurich M, Hofmeester T R, Jansen P A, Kays R, Kuijper D P J, Liefting Y, Linnell J D C, Luskin M S, Mann C, Milotic T, Newman P, Niedballa J, Oldoni D, Ossi F, Robertson T, Rovero F, Rowcliffe M, Seidenari L, Stachowicz I, Stowell D, Tobler M W, Wieczorek J, Zimmermann F & Desmet P (2023) Camtrap DP: an open standard for the FAIR exchange and archiving of camera trap data. Remote Sensing in Ecology and Conservation. https://doi.org/https://doi.org/10.1002/rse2.374

Buchhorn M, Lesiv M, Tsendbazar N-E, Herold M, Bertels L & Smets B (2020) Copernicus Global Land Cover Layers—Collection 2. Remote Sensing 12: 1044. https://doi.org/10.3390/rs12061044

Burton C, Neilson E, Moreira-Arce D, Ladle A, Steenweg R, Fisher J, Bayne E & Boutin S (2015) REVIEW: Wildlife camera trapping: a review and recommendations for linking surveys to ecological processes. Journal of Applied Ecology 52. https://doi.org/10.1111/1365-2664.12432

Bánki O, Roskov Y, Döring M & others (2023) Catalogue of Life Checklist. https://doi.org/10.48580/dfs6

Cadman M, González Talaván A, Athreya V, Chavan V, Ghosh-Harihar M, Hanssen F, Harihar A, Hirsch T, Lindgaard A, Mathur V, Mahlum F, Pandav B, Talukdar G & Vang R (2014) Publishing Camera Trap Data, a Best Practice Guide. Global Biodiversity Information Facility.

Caravaggi A, Burton A C, Clark D A, Fisher J T, Grass A, Green S, Hobaiter C, Hofmeester T R, Kalan A K, Rabaiotti D & Rivet D (2020) A review of factors to consider when using camera traps to study animal behavior to inform wildlife ecology and conservation. Conservation Science and Practice 2. https://doi.org/10.1111/csp2.239

Cartuyvels E, Adriaens T, Baert K, Baert W, Boiten G, Brosens D, Casaer J, De Boer A, Debrabandere M, Devisscher S, Donckers D, Dupont S, Franceus W, Fritz H, Fromme L, Gethöffer F, Herbots C, Huysentruyt F, Kehl L, Letheren L, Liebgott L, Liefting Y, Lodewijkx J, Maistrelli C, Matthies B, Meijvisch K, Moerkens D, Neukermans A, Neukermans B, Ronsijn J, Schamp K, Slootmaekers D, Van Der Beeck D & Desmet P (2022) MICA - Muskrat and coypu camera trap observations in Belgium, the Netherlands and Germany. https://doi.org/10.15468/5tb6ze

Casaer J, Milotic T, Liefting Y, Desmet P & Jansen P (2019) Agouti: A platform for processing and archiving of camera trap images. Biodiversity Information Science and Standards 3: e46690. https://doi.org/10.3897/biss.3.46690

Chapman A (2020) Current Best Practices for Generalizing Sensitive Species Occurrence Data. https://doi.org/10.15468/DOC-5JP4-5G10

Chapman A & Wieczorek J (2020) Georeferencing Best Practices. https://doi.org/10.15468/DOC-GG7H-S853

Chapman F M (1927) Who treads our trails? National geographic 52: 331–346.

Clements J F, Schulenberg T S, Iliff M J, Fredericks T A, Gerbracht J A, Lepage D, Billerman S M, Sullivan B L & Wood C L (2022) The eBird/Clements checklist of Birds of the World. https://www.birds.cornell.edu/clementschecklist/download/

Cusack J J, Dickman A J, Rowcliffe J M, Carbone C, Macdonald D W & Coulson T (2015) Random versus Game Trail-Based Camera Trap Placement Strategy for Monitoring Terrestrial Mammal Communities. Guralnick R (Ed). PLOS ONE 10: e0126373. https://doi.org/10.1371/journal.pone.0126373

DataCite Metadata Working Group (2021) DataCite Metadata Schema Documentation for the Publication and Citation of Research Data and Other Research Outputs v4.4. https://doi.org/10.14454/3W3Z-SA82

Delisle Z J, Flaherty E A, Nobbe M R, Wzientek C M & Swihart R K (2021) Next-Generation Camera Trapping: Systematic Review of Historic Trends Suggests Keys to Expanded Research Applications in Ecology and Conservation. Frontiers in Ecology and Evolution 9: 617996. https://doi.org/10.3389/fevo.2021.617996

Dinerstein E, Olson D, Joshi A, Vynne C, Burgess N D, Wikramanayake E, Hahn N, Palminteri S, Hedao P, Noss R, Hansen M, Locke H, Ellis E C, Jones B, Barber C V, Hayes R, Kormos C, Martin V, Crist E, Sechrest W, Price L, Baillie J E M, Weeden D, Suckling K, Davis C, Sizer N, Moore R, Thau D, Birch T, Potapov P, Turubanova S, Tyukavina A, Souza N de, Pintea L, Brito J C, Llewellyn O A, Miller A G, Patzelt A, Ghazanfar S A, Timberlake J, Klöser H, Shennan-Farpón Y, Kindt R, Lillesø J-P B, Breugel P van, Graudal L, Voge M, Al-Shammari K F & Saleem M (2017) An Ecoregion-Based Approach to Protecting Half the Terrestrial Realm. BioScience 67: 534–545. https://doi.org/10.1093/biosci/bix014

eMammal ( Study Design Recommendation for a Park. https://emammal.si.edu/about/study-design/park

European Environment Agency (EEA) (2021) EUNIS habitat classification. https://eunis.eea.europa.eu/habitats.jsp

Fegraus E H, Lin K, Ahumada J A, Baru C, Chandra S & Youn C (2011) Data acquisition and management software for camera trap data: A case study from the TEAM Network. Ecological Informatics 6: 345–353. https://doi.org/https://doi.org/10.1016/j.ecoinf.2011.06.003

Forrester T, O’Brien T, Fegraus E, Jansen P, Palmer J, Kays R, Ahumada J, Stern B & McShea W (2016) An Open Standard for Camera Trap Data. Biodiversity Data Journal 4: e10197. https://doi.org/10.3897/BDJ.4.e10197

Fortson L, Masters K, Nichol R, Edmondson E M, Lintott C, Raddick J & Wallin J (2012) Galaxy zoo: Morphological classification and citizen science. Advances in machine learning and data mining for astronomy 2012: 213–236.

GBIF Secretariat (2015) EML Agent Role Vocabulary. http://rs.gbif.org/vocabulary/gbif/agentRole

GBIF Secretariat (2018) Quick guide to publishing data through GBIF.org. GBIF. https://www.gbif.org/publishing-data

GBIF Secretariat (2020) Data quality requirements: Occurrence datasets. GBIF. https://www.gbif.org/data-quality-requirements-occurrences

GBIF Secretariat (2022) Diversifying the GBIF Data Model. GBIF. https://www.gbif.org/new-data-model

Glover‐Kapfer P, Soto‐Navarro C A & Wearn O R (2019) Camera‐trapping version 3.0: current constraints and future priorities for development. Rowcliffe M, Sollmann R (Eds). Remote Sensing in Ecology and Conservation 5: 209–223. https://doi.org/10.1002/rse2.106

Green S E, Rees J P, Stephens P A, Hill R A & Giordano A J (2020) Innovations in Camera Trapping Technology and Approaches: The Integration of Citizen Science and Artificial Intelligence. Animals 10: 132. https://doi.org/10.3390/ani10010132

Groom Q, De Smedt S, Veríssimo Pereira N, Bogaerts A & Engledow H (2018) DoeDat, the Crowdsourcing Platform of Meise Botanic Garden. Biodiversity Information Science and Standards 2: e26803. https://doi.org/10.3897/biss.2.26803

Guillera-Arroita G, Ridout M S & Morgan B J T (2010) Design of occupancy studies with imperfect detection: Design of occupancy studies. Methods in Ecology and Evolution 1: 131–139. https://doi.org/10.1111/j.2041-210X.2010.00017.x

Hendry H & Mann C (2018) Camelot—intuitive software for camera-trap data management. Oryx 52: 15–15. https://doi.org/10.1017/S0030605317001818

Hobbs M T & Brehme C S (2017) An improved camera trap for amphibians, reptiles, small mammals, and large invertebrates. Crowther MS (Ed). PLOS ONE 12: e0185026. https://doi.org/10.1371/journal.pone.0185026

Howe E J, Buckland S T, Després-Einspenner M-L & Kühl H S (2017) Distance sampling with camera traps. Matthiopoulos J (Ed). Methods in Ecology and Evolution 8: 1558–1565. https://doi.org/10.1111/2041-210x.12790

Hsing P Y, Bradley S, Kent V T, Hill R A, Smith G C, Whittingham M J, Cokill J, Crawley D, MammalWeb volunteers & Stephens P A (2018) Economical crowdsourcing for camera trap image classification. Rowcliffe M, Wearn O (Eds). Remote Sensing in Ecology and Conservation 4: 361–374. https://doi.org/10.1002/rse2.84

IUCN (2019) Habitats Classification Scheme. https://www.iucnredlist.org/resources/habitat-classification-scheme

Jones K E, Bielby J, Cardillo M, Fritz S A, O’Dell J, Orme C D L, Safi K, Sechrest W, Boakes E H, Carbone C, Connolly C, Cutts M J, Foster J K, Grenyer R, Habib M, Plaster C A, Price S A, Rigby E A, Rist J, Teacher A, Bininda-Emonds O R P, Gittleman J L, Mace G M & Purvis A (2009) PanTHERIA: a species‐level database of life history, ecology, and geography of extant and recently extinct mammals: Ecological Archives E090‐184. Michener WK (Ed). Ecology 90: 2648–2648. https://doi.org/10.1890/08-1494.1

Jung M, Dahal P R, Butchart S H M, Donald P F, De Lamo X, Lesiv M, Kapos V, Rondinini C & Visconti P (2020) A global map of terrestrial habitat types. Scientific Data 7: 256. https://doi.org/10.1038/s41597-020-00599-8

Kays R, Arbogast B S, Baker‐Whatton M, Beirne C, Boone H M, Bowler M, Burneo S F, Cove M V, Ding P, Espinosa S, Gonçalves A L S, Hansen C P, Jansen P A, Kolowski J M, Knowles T W, Lima M G M, Millspaugh J, McShea W J, Pacifici K, Parsons A W, Pease B S, Rovero F, Santos F, Schuttler S G, Sheil D, Si X, Snider M & Spironello W R (2020) An empirical evaluation of camera trap study design: How many, how long and when? Fisher D (Ed). Methods in Ecology and Evolution 11: 700–713. https://doi.org/10.1111/2041-210X.13370

Kucera T E & Barrett R H (2011) A History of Camera Trapping. In: O’Connell AF, Nichols JD, Karanth KU (Eds), Camera Traps in Animal Ecology: Methods and Analyses. Springer Japan, Tokyo, 9–26. https://doi.org/10.1007/978-4-431-99495-4_2

Lamelas-Lopez L, Pardavila X, Amorim I & Borges P (2020) Wildlife inventory from camera-trapping surveys in the Azores (Pico and Terceira islands). Biodiversity Data Journal 8: e47865. https://doi.org/10.3897/BDJ.8.e47865

Lasky M (2016) North Carolina’s Candid Critters. https://emammal.si.edu/north-carolinas-candid-critters

Law B E, Arkebauer T, Campbell J L, Chen J, Sun O, Schwartz M, Ingen C van & Verma S (2008) Terrestrial carbon observations: Protocols for vegetation sampling and data submission.

Life MICA (2019) MICA - Management of Invasive Coypu and muskrAt in Europe. https://lifemica.eu/ (accessed 30 June 2023)

Mackenzie D I & Royle J A (2005) Designing occupancy studies: general advice and allocating survey effort: Designing occupancy studies. Journal of Applied Ecology 42: 1105–1114. https://doi.org/10.1111/j.1365-2664.2005.01098.x

Marcus Rowcliffe J, Carbone C, Jansen P A, Kays R & Kranstauber B (2011) Quantifying the sensitivity of camera traps: an adapted distance sampling approach: Quantifying camera trap sensitivity. Methods in Ecology and Evolution 2: 464–476. https://doi.org/10.1111/j.2041-210X.2011.00094.x

McIntyre T, Majelantle T L, Slip D J & Harcourt R G (2020) Quantifying imperfect camera-trap detection probabilities: implications for density modelling. Wildlife Research 47: 177. https://doi.org/10.1071/WR19040

Meek P, Fleming P, Ballard G, Claridge A, Banks P, Sanderson J & Swann D (2014) Camera Trapping Wildlife Management and Research. CSIRO publishing.

Meek P D, Ballard G, Falzon G, Williamson J, Milne H, Farrell R, Stover J, Mather-Zardain A T, Bishop J C, Cheung E K-W, Lawson C K, Munezero A M, Schneider D, Johnston B E, Kiani E, Shahinfar S, Sadgrove E J & Fleming P J S (2020) Camera Trapping Technology and Related Advances: into the New Millennium. Australian Zoologist 40: 392–403. https://doi.org/10.7882/AZ.2019.035

Newkirk E S (2016) CPW Photo Warehouse. http://cpw.state.co.us/learn/Pages/ResearchMammalsSoftware.aspx

Norouzzadeh M S, Morris D, Beery S, Joshi N, Jojic N & Clune J (2021) A deep active learning system for species identification and counting in camera trap images. Methods in Ecology and Evolution 12: 150–161. https://doi.org/10.1111/2041-210X.13504

Oldoni D, Desmet P & Huybrechts P (2023) camtraptor: Read, Explore and Visualize Camera Trap Data Packages. https://inbo.github.io/camtraptor/

Oliveira B F, São-Pedro V A, Santos-Barrera G, Penone C & Costa G C (2017) AmphiBIO, a global database for amphibian ecological traits. Scientific Data 4: 170123. https://doi.org/10.1038/sdata.2017.123

O’Brien T G (2010) Wildlife picture index and biodiversity monitoring: issues and future directions: Wildlife picture index and biodiversity monitoring. Animal Conservation 13: 350–352. https://doi.org/10.1111/j.1469-1795.2010.00384.x

O’Connor K M, Nathan L R, Liberati M R, Tingley M W, Vokoun J C & Rittenhouse T A G (2017) Camera trap arrays improve detection probability of wildlife: Investigating study design considerations using an empirical dataset. Bonter DN (Ed). PLOS ONE 12: e0175684. https://doi.org/10.1371/journal.pone.0175684

Resources Information Standards Committee (RISC) (2019) Wildlife Camera Metadata Protocol: Standards for Components of British Columbia’s Biodiversity No. 44. https://www2.gov.bc.ca/assets/download/DABCE3A5C7934410A8307285070C24EA

Riley S J, DeGloria S D & Elliot R (1999) A Terrain Ruggedness Index That Quantifies Topographic Heterogeneity. International Journal of Sciences 5: 23–27. https://download.osgeo.org/qgis/doc/reference-docs/Terrain_Ruggedness_Index.pdf

Robertson T, Döring M, Guralnick R, Bloom D, Wieczorek J, Braak K, Otegui J, Russell L & Desmet P (2014) The GBIF Integrated Publishing Toolkit: Facilitating the Efficient Publishing of Biodiversity Data on the Internet. Little DP (Ed). PLoS ONE 9: e102623. https://doi.org/10.1371/journal.pone.0102623

Rovero F, Tobler M & Sanderson J (2010) Camera trapping for inventorying terrestrial vertebrates. In: Manual on Field Recording Techniques and Protocols for All Taxa Biodiversity Inventories. AbcTaxa. https://biblio.naturalsciences.be/rbins-publications/abc-txa/abc-taxa-08/chapter-6.pdf

Rovero F & Zimmermann F eds. (2016) Camera trapping for wildlife research. Pelagic Publishing, Exeter, UK.

Rovero F, Zimmermann F, Berzi D & Meek P (2013) “Which camera trap type and how many do I need?” A review of camera features and study designs for a range of wildlife research applications. Hystrix 24. https://doi.org/10.4404/hystrix-24.2-8789

Rowcliffe J M, Field J, Turvey S T & Carbone C (2008) Estimating Animal Density Using Camera Traps without the Need for Individual Recognition. Journal of Applied Ecology 45: 1228–1236. https://www.jstor.org/stable/20144086 (accessed 29 June 2023)

Rowcliffe J M, Jansen P A, Kays R, Kranstauber B & Carbone C (2016) Wildlife speed cameras: measuring animal travel speed and day range using camera traps. Pettorelli N (Ed). Remote Sensing in Ecology and Conservation 2: 84–94. https://doi.org/10.1002/rse2.17

Shannon G, Lewis J S & Gerber B D (2014) Recommended survey designs for occupancy modelling using motion-activated cameras: insights from empirical wildlife data. PeerJ 2: e532. https://doi.org/10.7717/peerj.532

Simpson R, Page K R & De Roure D (2014) Zooniverse: observing the world’s largest citizen science platform. In: Proceedings of the 23rd International Conference on World Wide Web. ACM, Seoul Korea, 1049–1054. https://doi.org/10.1145/2567948.2579215

Sollmann R, Gardner B & Belant J L (2012) How Does Spatial Study Design Influence Density Estimates from Spatial Capture-Recapture Models? Waterman JM (Ed). PLoS ONE 7: e34575. https://doi.org/10.1371/journal.pone.0034575

Soria C D, Pacifici M, Di Marco M, Stephen S M & Rondinini C (2021) COMBINE: a coalesced mammal database of intrinsic and extrinsic traits. Ecology 102. https://doi.org/10.1002/ecy.3344

Sun C, Beirne C, Burgar J M, Howey T, Fisher J T & Burton A C (2021) Simultaneous monitoring of vegetation dynamics and wildlife activity with camera traps to assess habitat change. Rowcliffe M, Hofmeester T (Eds). Remote Sensing in Ecology and Conservation 7: 666–684. https://doi.org/10.1002/rse2.222

Sunarto S, Sollmann R, Mohamed A & Kelly M J (2013) Camera trapping for the study and conservation of tropical carnivores. The Raffles Bulletin of Zoology 28: 21–42. http://zoobank.org/urn:lsid:zoobank.org:pub:804A6DC9-A92A-41AE-A820-F3DA48614761

Swanson A, Kosmala M, Lintott C, Simpson R, Smith A & Packer C (2015) Snapshot Serengeti, high-frequency annotated camera trap images of 40 mammalian species in an African savanna. Scientific Data 2: 150026. https://doi.org/10.1038/sdata.2015.26

Tobias J A, Sheard C, Pigot A L, Devenish A J M, Yang J, Sayol F, Neate‐Clegg M H C, Alioravainen N, Weeks T L, Barber R A, Walkden P A, MacGregor H E A, Jones S E I, Vincent C, Phillips A G, Marples N M, Montaño‐Centellas F A, Leandro‐Silva V, Claramunt S, Darski B, Freeman B G, Bregman T P, Cooney C R, Hughes E C, Capp E J R, Varley Z K, Friedman N R, Korntheuer H, Corrales‐Vargas A, Trisos C H, Weeks B C, Hanz D M, Töpfer T, Bravo G A, Remeš V, Nowak L, Carneiro L S, Moncada R. A J, Matysioková B, Baldassarre D T, Martínez‐Salinas A, Wolfe J D, Chapman P M, Daly B G, Sorensen M C, Neu A, Ford M A, Mayhew R J, Fabio Silveira L, Kelly D J, Annorbah N N D, Pollock H S, Grabowska‐Zhang A M, McEntee J P, Carlos T. Gonzalez J, Meneses C G, Muñoz M C, Powell L L, Jamie G A, Matthews T J, Johnson O, Brito G R R, Zyskowski K, Crates R, Harvey M G, Jurado Zevallos M, Hosner P A, Bradfer‐Lawrence T, Maley J M, Stiles F G, Lima H S, Provost K L, Chibesa M, Mashao M, Howard J T, Mlamba E, Chua M A H, Li B, Gómez M I, García N C, Päckert M, Fuchs J, Ali J R, Derryberry E P, Carlson M L, Urriza R C, Brzeski K E, Prawiradilaga D M, Rayner M J, Miller E T, Bowie R C K, Lafontaine R M, Scofield R P, Lou Y, Somarathna L, Lepage D, Illif M, Neuschulz E L, Templin M, Dehling D M, Cooper J C, Pauwels O S G, Analuddin K, Fjeldså J, Seddon N, Sweet P R, DeClerck F A J, Naka L N, Brawn J D, Aleixo A, Böhning‐Gaese K, Rahbek C, Fritz S A, Thomas G H & Schleuning M (2022) AVONET: morphological, ecological and geographical data for all birds. Coulson T (Ed). Ecology Letters 25: 581–597. https://doi.org/10.1111/ele.13898

Tobler M W, Carrillo-Percastegui S E, Leite Pitman R, Mares R & Powell G (2008) An evaluation of camera traps for inventorying large- and medium-sized terrestrial rainforest mammals. Animal Conservation 11: 169–178. https://doi.org/10.1111/j.1469-1795.2008.00169.x

Tobler M W & Powell G V N (2013) Estimating jaguar densities with camera traps: Problems with current designs and recommendations for future studies. Biological Conservation 159: 109–118. https://doi.org/10.1016/j.biocon.2012.12.009

Van Berkel T (2014) Camera trapping for wildlife conservation: Expedition field techniques. Geography Outdoors.

Vegetation Subcommittee (2016) U.S. National Vegetation Classification. https://usnvc.org/

Waller J (2020) GBIF occurrence license processing. GBIF. https://data-blog.gbif.org/post/gbif-occurrence-license-processing/

Wearn O R & Glover-Kapfer P (2017) Camera-trapping for conservation: a guide to best-practices. Research Gate. https://doi.org/10.13140/RG.2.2.23409.17767

Wearn O R, Rowcliffe J M, Carbone C, Bernard H & Ewers R M (2013) Assessing the Status of Wild Felids in a Highly-Disturbed Commercial Forest Reserve in Borneo and the Implications for Camera Trap Survey Design. Cameron EZ (Ed). PLoS ONE 8: e77598. https://doi.org/10.1371/journal.pone.0077598

Weinstein B G (2018) A computer vision for animal ecology. Prugh L (Ed). Journal of Animal Ecology 87: 533–545. https://doi.org/10.1111/1365-2656.12780

WildCAM (2018) Wildlife Cameras for Adaptive Management. https://wildcams.ca/

Wilkinson M D, Dumontier M, Aalbersberg I J J, Appleton G, Axton M, Baak A, Blomberg N, Boiten J-W, Silva Santos L B da, Bourne P E, Bouwman J, Brookes A J, Clark T, Crosas M, Dillo I, Dumon O, Edmunds S, Evelo C T, Finkers R, Gonzalez-Beltran A, Gray A J G, Groth P, Goble C, Grethe J S, Heringa J, Hoen P A C ’t, Hooft R, Kuhn T, Kok R, Kok J, Lusher S J, Martone M E, Mons A, Packer A L, Persson B, Rocca-Serra P, Roos M, Schaik R van, Sansone S-A, Schultes E, Sengstag T, Slater T, Strawn G, Swertz M A, Thompson M, Lei J van der, Mulligen E van, Velterop J, Waagmeester A, Wittenburg P, Wolstencroft K, Zhao J & Mons B (2016) The FAIR Guiding Principles for scientific data management and stewardship. Scientific Data 3. https://doi.org/10.1038/sdata.2016.18

Wilman H, Belmaker J, Simpson J, De La Rosa C, Rivadeneira M M & Jetz W (2014) EltonTraits 1.0: Species-level foraging attributes of the world’s birds and mammals: Ecological Archives E095-178. Ecology 95: 2027–2027. https://doi.org/10.1890/13-1917.1

WoRMS Editorial Board (2023) World Register of Marine Species (WoRMS). https://www.marinespecies.org

Wilkinson-2016

Yang H, Li S, Chen J, Zhang X & Xu S (2017) The Standardization and Harmonization of Land Cover Classification Systems towards Harmonized Datasets: A Review. ISPRS International Journal of Geo-Information 6: 154. https://doi.org/10.3390/ijgi6050154

Young S, Rode-Margono J & Amin R (2018) Software to facilitate and streamline camera trap data management: A review. Ecology and Evolution 8: 9947–9957. https://doi.org/10.1002/ece3.4464

Zaragozí B, Belda A, Giménez P, Navarro J T & Bonet A (2015) Advances in camera trap data management tools: Towards collaborative development and integration with GIS. Ecological Informatics 30: 6–11. https://doi.org/10.1016/j.ecoinf.2015.08.001

Zhao M, Heinsch F A, Nemani R R & Running S W (2005) Improvements of the MODIS terrestrial gross and net primary production global data set. Remote Sensing of Environment 95: 164–176. https://doi.org/10.1016/j.rse.2004.12.011