Este documento también está disponible en formato PDF y en otros idiomas: English, 日本語.
Colofón
Cita sugerida
Reyserhove L, Norton B & Desmet P (2023) Buenas prácticas para gestionar y publicar datos de cámaras trampa. Secretaría de GBIF: Copenhague. https://doi.org/10.35035/doc-0qzp-2x37
Colaboradores
Tanja Milotic y Pieter Huybrechts contribuyeron a la introducción y las figuras.
Traducciones
español
Esta guía fue traducida al Español en el marco del proyecto CESP "Fortaleciendo la publicación de datos de cámaras trampa a través de GBIF en Latinoamérica" (CESP2025-014)
Japonés
Traducida por Kumiko Totsu, Keita Fukasawa y Kana Terayama del Instituto Nacional de Estudios Ambientales de Japón, en colaboración con la Iniciativa Japonesa para la Información sobre Biodiversidad (JBIF).
Licencia
El documento Buenas prácticas para gestionar y publicar datos de cámaras trampa tiene licencia bajo Atribución/Reconocimiento-CompartirIgual 4.0 Internacional.
Resumen
Las cámaras trampa han surgido como herramientas importantes para monitorear el estado de la biodiversidad y los ecosistemas naturales. La proliferación de datos de estos sensores ha hecho que la gestión de datos, más que la recopilación de datos, sea el factor limitante en la investigación relacionada con las cámaras trampa. Esta guía proporciona recomendaciones para la gestión de datos de cámara trampa y su publicación en GBIF. Está dirigida a cualquier persona que lleve a cabo un estudio con cámaras trampa, en particular administradores de datos, editores de datos y otras que trabajen en la informática de la biodiversidad.
1. Introducción
1.1. ¿Qué es esta guía?
Las cámaras trampa han surgido como una tecnología poderosa para la observación semiautomatizada de ecosistemas naturales. Su éxito ha llevado a un crecimiento exponencial de los datos de cámaras trampa en todo el mundo. Esto trae un gran desafío: grandes volúmenes de datos están a la espera de ser clasificados, interpretados y archivados. La gestión de datos, más que la recopilación de datos, se ha convertido en un factor limitante para la investigación con cámaras trampa. La proliferación de proyectos de cámaras trampa también ha llevado a una diversidad de terminologías, métodos de clasificación y prácticas de gestión de datos, que impiden transparencia, interoperabilidad, colaboración cruzada de proyectos o meta análisis. Una gran red interconectada de cámaras remotas podría actuar como un instrumento para la gestión de la biodiversidad en tiempo real y la toma de decisiones fiable, pero si no somos capaces de combinar datos, la investigación con cámaras trampa perderá su máximo potencial. Esta es la razón por la que los datos de las cámaras trampa deben estar abiertos y FAIR (localizable, accesible, interoperable y reutilizable, por sus siglas en inglés, ver (Wilkinson et al. (2016)), para que tanto humanos como máquinas puedan utilizar estos valiosos datos para aplicaciones presentes y futuras.
Para optimizar la (re)utilización de los datos de cámaras trampa, hay una necesidad de directrices sobre mejores prácticas. Existen varias guías que abordan uno o más elementos del ciclo de vida de la cámara trampa: planificación, tecnología y técnicas, diseño de estudio, recopilación de datos, análisis, métodos de gestión y publicación de datos (O’Connell et al. 2011; Rovero et al. 2013; Meek et al. 2014; Cadman et al. 2014; Burton et al. 2015; Wearn y Glover-Kapfer 2017). Desde entonces, la comunidad de cámaras trampa ha hecho progresos significativos:
-
Las plataformas especializadas de gestión de datos ahora se utilizan principalmente para gestionar proyectos y datos
-
La inteligencia artificial (IA) y la [cloud-computingcomputación en la nube] se utilizan cada vez más para automatizar el reconocimiento de especies y pronto se aplicará a la mayoría de los registros multimedia
-
El intercambio de datos ahora se facilita por Camtrap DP, formato de intercambio de datos desarrollado bajo los Estándares de Información sobre la Biodiversidad (TDWG). Hay una mayor conciencia de la ciencia abierta, datos FAIR data (Wilkinson-2016) y normas de privacidad
No hay guías actualizadas disponibles que se centren únicamente en la gestión y publicación de los datos de las cámaras trampa. Esta guía pretende cubrir ese vacío.
1.2. Público objetivo
Esta guía está pensada para ser útil para cualquier persona que gestione un estudio con cámaras trampa. El enfoque específico en la gestión y publicación de datos hace que esta guía de buenas prácticas sea más útil para perfiles como administradores de datos, publicadores de datos, gestores de bases de datos y de información y estudiantes que trabajan en informática de la biodiversidad.
Los autores de esta guía tienen experiencia con las cámaras trampa tradicionales (diseñadas para mamíferos terrestres de tamaño mediano a grande), pero muchas de las recomendaciones, así como el estándar Camtrap DP, podrían ser aplicables a datos de otros tipos de cámaras trampa.
1.3. De qué no trata esta guía
Esta guía se centra principalmente en la gestión, el control de calidad, la mejora y la publicación de datos de cámaras trampa. Los siguientes temas están fuera del alcance:
-
Planear un estudio de cámaras trampa: tipos de cámaras trampa, diseño de estudio, etc.
-
Distribución y recolección de cámaras trampa: trabajo de campo, cebos y señuelos, recuperación de datos, etc.
-
Análisis: software de análisis, modelado ecológico, corrección de sesgos, etc.
-
Datos de las cámaras móviles: robots submarinos, cámaras montadas en vehículos, drones, etc.
2. El uso de cámaras trampa
2.1. ¿Qué son las cámaras trampa?
Las cámaras trampa son dispositivos de grabación desplegados en el campo para capturar automáticamente imágenes o videos de la actividad de la vida silvestre. También se les conoce como cámaras de fototrampeo. Pueden grabar archivos multimedia en un intervalo regular (lapso de tiempo) o cuando se activa por la actividad de un animal. Tradicionalmente, "cámaras trampa" se refiere a aquellas diseñadas para grabar mamíferos terrestres de tamaño medio a grande con un sensor infrarrojo pasivo (PIR) (Hobbs and Brehme 2017), pero existen otros tipos, p. ej., para medio marino o para insectos. Al igual que satélites, drones, rastreadores GPS o sensores acústicos, las cámaras trampa recolectan observaciones mecánicas. Los sensores acústicos en particular son bastante similares a las cámaras trampa, que utilizan audio en lugar de imagen/video para observar el ecosistema circundante. Todas estas tecnologías tienen el beneficio de poder recopilar datos a una escala y frecuencia que serían difíciles de obtener a través de observaciones humanas, suelen sufrir menos del sesgo por interpretación o interferencia humana.
2.2. ¿Por qué se utilizan las cámaras trampa?
En las últimas décadas, las cámaras trampa se han utilizado cada vez más para recopilar datos de biodiversidad de forma no invasiva con una mínima perturbación de la vida silvestre. Ya en los años 1890, George Siras fue el primero en desarrollar un método que utilizaba un hilo disparador (tripwire) y flash, mediante el cual los animales salvajes se fotografiaron a sí mismos (Kucera and Barrett 2011). Los primeros estudios científicos de cámaras trampa se remontan a principios del siglo XX (Chapman 1927). Desde aquellos días de innovación, los avances tecnológicos en fotografía digital y sensores infrarrojos han conducido a la detección rentable y no invasiva de la esquiva vida salvaje (Burton et al. 2015). Las cámaras trampa se han convertido en herramientas de investigación populares: son fáciles de instalar, son relativamente baratas y no requieren permisos especiales ni formación y, por lo tanto, están siendo utilizadas por investigadores profesionales y aficionados a una escala muy amplia. En consecuencia, el número de publicaciones anuales relacionadas con estudios con cámaras trampa se ha multiplicado por más de 80 veces desde los años 1990. La tecnología de las cámaras trampa se utiliza para muestrear comunidades de mamíferos de tamaño mediano a grande, y especies de aves que habitan ecosistemas de agua dulce, terrestres, fosoriales, arbóreos y marinos y han demostrado ser excelentes herramientas para ayudar a las iniciativas de observación de la biodiversidad (Delisle et al. 2021).
Los taxones de animales más frecuentemente estudiados incluyen ungulados, carnívoros, primates y aves, aunque los sensores más innovadores también permiten la detección de pequeños mamíferos, anfibios, reptiles, peces e invertebrados (Hobbs and Brehme 2017). La tecnología de las cámaras trampa es adecuada para recoger datos de presencia, así como abundancia, densidad, diversidad y distribución de especies (Tabla 1) y para responder preguntas conductuales como patrones de actividad y respuestas a la perturbación humana. Además, las cámaras trampa no son selectivas en las observaciones de las especies y, por lo tanto, a menudo se utilizan en estudios de interacción de especies. Los datos de "captura adicional" de los estudios de especies objetivo podrían ser útiles también para otros estudios. A menudo se utilizan para monitorear especies raras, amenazadas y en peligro de extinción en terrenos remotos e inaccesibles.
| Objetivo del estudio | Resultado | Referencias clave |
|---|---|---|
abundancia |
densidad Sollmann et al. (2012); Tobler and Powell (2013); Rowcliffe et al. (2008); Rowcliffe et al. (2016) |
abundancia |
abundancia relativa |
Rowcliffe et al. (2008); Wearn et al. (2013); Cusack et al. (2015) |
distribución |
ocupación |
Mackenzie and Royle (2005); Guillera-Arroita et al. (2010); O’Brien (2010); Shannon et al. (2014) |
diversidad |
diversidad-beta |
diversidad |
|
índices de diversidad |
diversidad |
|
riqueza |
presencia de especies |
2.3. Ciclo de vida de la cámara trampa
El ciclo de vida completo de la investigación con cámaras trampa incluye la fase de planificación, la instalación de las cámaras trampa en el campo, la recolección, la gestión, el análisis y el intercambio de datos. Esta guía no pretende cubrir todos los aspectos del ciclo de vida del proyecto con cámaras trampa. El enfoque en esta guía de buenas prácticas radica en la gestión y publicación de los datos. Para los lectores interesados en una revisión general de la investigación con cámaras trampa, la fase de planificación, la instalación de cámaras trampa en el campo, aquí proporcionamos una visión general de los recursos disponibles (ver Tabla 2).
| Tema | Qué | Referencia |
|---|---|---|
Ciclo de vida completo de captura de cámara |
Estado general de la técnica |
Cadman et al. (2014); Rovero and Zimmermann (2016); Wearn and Glover-Kapfer (2017); Meek et al. (2020); Glover‐Kapfer et al. (2019) |
Planificación |
¿Cómo diseñar un estudio con cámaras trampa? |
Wearn and Glover-Kapfer (2017); Rovero et al. (2010); Sunarto et al. (2013); Meek et al. (2014); Kays et al. (2020); Caravaggi et al. (2020); Hobbs and Brehme (2017); McIntyre et al. (2020) |
Instalación y recolección |
¿Dónde y cómo montar su cámara? |
Wearn and Glover-Kapfer (2017); Rovero et al. (2010); Rovero et al. (2013); Meek et al. (2014) |
Gestión e intercambio de datos |
Consideraciones de gestión de datos |
|
Análisis |
Software para analizar datos |
Para que el conjunto de datos de una cámara sea útil, debería definir claramente el propósito y los objetivos en la fase de planificación: ¿qué le gustaría saber de qué grupos de especies? Cada propósito trae consigo sus propias características clave a considerar, como la altura y dirección de la cámara, estacionalidad, uso de cebo, características de zona de detección, ajustes de cámara, activación y tipo de flash. Estas características deben incluirse en el conjunto de datos publicado con el fin de ser útiles en los análisis subsiguientes. Recomendamos consultar las referencias clave en Tabla 1 para lectores interesados en este tema. Adicionalmente, Wearn and Glover-Kapfer (2017) proporciona una visión global de los aspectos generales de diseño de relevamientos con cámaras trampa.
3. Gestión de datos de cámaras trampa
Una vez que una cámara trampa está operando en el campo puede generar centenas, miles o incluso millones de fotos o videos en el marco temporal del proyecto. En última instancia, es necesario analizar estos datos. Pero primero, es necesario recuperar, almacenar, organizar y etiquetar los datos. El contenido de las imágenes necesita interpretación o anotación, ya sea manualmente o con ayuda de tecnología. Todas estas etapas se consideran en el proceso de gestión de datos.
La gestión de datos es uno de los verdaderos cuellos de botella en la investigación con cámaras trampa. La enorme cantidad de información almacenada en las tarjetas de memoria requiere una alta inversión en términos de esfuerzo humano y tiempo. Si el almacenamiento y la clasificación de datos se quedan rezagados, grandes volúmenes de datos permanecerán sin utilizar y se perderán eventualmente. La extracción, la organización y el etiquetado manuales pueden introducir errores humanos y provocar la pérdida de datos. Además, a menudo existe más información en la imagen o el video que la correspondiente únicamente a la especie (o grupo) objetivo o tema que constituye el foco del proyecto. Las cámaras trampa inherentemente detectan múltiples especies, y las observaciones de especies no objetivo proporcionan datos valiosos para otros objetivos de investigación. Si se anotaran todos los datos, incluidas las especies no objetivo, se podrían generar resultados más relevantes para los fondos (Young et al. 2018; Wearn and Glover-Kapfer 2017).
Para concluir, cada investigador debe prestar atención a la calidad de los datos. La idea subyacente es: es mejor tener diez elementos bien documentados en lugar de cien elementos mal documentados. Sólo de esta manera podremos convertir la cacofonía de los datos provenientes de imágenes en bruto en datos cuantitativos útiles.
En esta sección introducimos una serie de convenciones generales para la gestión adecuada de los datos. Nos acercamos más a qué son exactamente los datos de las cámaras trampa. Nos centramos en cómo gestionar de la mejor manera y qué plataformas de gestión de datos se pueden utilizar para facilitar el proceso para cada tipo de datos de cámara trampa (metadata, media, deployments, observations).
3.1. Qué son los datos de las cámaras trampa
Intuitivamente, asociamos los datos de las cámaras trampa con los multimedia capturados por las cameras. Pero para poder utilizarlos para la investigación necesitan estar documentados con información adicional. Los archivos multimedia deben ser classified para saber qué especies fueron observadas. La información sobre el despliegue, la duración, la [location], la alineación y la metodología de muestreo, es necesaria para saber cuándo, dónde y qué tan probable era que se observaran esas especies. Finalmente, necesitamos información sobre el project/study en su conjunto para conocer el alcance y quién estaba involucrado.
En general, podemos distinguir cuatro tipos de datos de cámaras trampa:
-
Metadatos del proyecto: información sobre el proyecto/estudio cómo un todo
-
Archivos multimedia: imágenes, videos o archivos de sonido capturados por las cameras, incluyendo sus metadatos EXIF
-
Despliegues: información sobre la [location] de la cámara y su alineación, la duración de muestreo y covariables. Normalmente no se registra automáticamente por la cámara.
-
Observaciones: información sobre lo que se puede ver u oír en los archivos multimedia (es decir, objetos de interés), como animales, seres humanos o vehículos. El objetivo normalmente es registrar qué especies animales fueron observadas, incluyendo opcionalmente información sobre el tamaño de su grupo, la etapa de vida, el sexo y el comportamiento.
Estos datos pueden organizarse de diferentes maneras, basándose en la preferencia personal o en qué data management system se utiliza. Sin embargo, podemos identificar una serie de conceptos básicos, más adelante denominados como clases, que constituyen un "modelo" para los datos de cámaras trampa (ver la Figura 1). Estas clases son proyecto, organización, participante, despliegue, ubicación, dispositivos, multimedios, secuencia y observación.
0| cero o uno, 0< cero a muchos, |< uno a muchos, y || exactamente uno. Un despliegue por ejemplo tiene cero para muchos medios, mientras que un medio pertenece exactamente a un despliegue.3.2. Metadatos del proyecto
Los metadatos del proyecto documentan un proyecto/estudio con cámaras trampa como un todo. ¿Quién estaba implicado?, ¿cuál era la razón?, ¿qué métodos de muestreo se utilizaron? y ¿cuál era el alcance? Los proyectos pueden variar mucho en tamaño y a veces son parte de meta-estudios o se subdividen en subproyectos para gestionar mejor sus cientos o miles de despliegues (p. ej., Snapshot USA). Describa los proyectos a un nivel que tenga sentido. ¿Es posible identificar a una persona que puede tomar decisiones o responder preguntas sobre el proyecto? ¿Es fácil describir la metodología? Si la respuesta a estas preguntas es no, entonces sería mejor considerar esos proyectos como separados. Tenga también en cuenta que recomendamos fuertemente publicar datos a nivel del proyecto, es decir, un conjunto de datos por proyecto (ver la Sección 4).
Cuando se publican, los metadatos del proyecto son una parte sustancial de los metadatos del conjunto de datos (ver la Figura 2), permitiendo que otros descubran su conjunto de datos cuando buscan ciertas palabras clave y evalúen si se ajusta a sus necesidades de investigación. Cuando describa su proyecto, piense en qué necesitarían los demás para entenderlo. Recomendamos cubrir los siguientes aspectos (pero no dejar que lo perfecto sea enemigo de lo bueno):
-
Título
-
Identificador y/o acrónimo
-
Descripción (incluyendo racionales)
-
Colaboradores y sus roles (incluyendo organizaciones)
-
Enlace al sitio web
-
Palabras clave
-
Financiación
-
Diseño de muestreo (simple aleatorio, sistemático aleatorio, etc.)
-
Resultado del ámbito geográfico
-
Método de captura (tipo de sensor, detección de movimiento y/o intervalo de tiempo)
-
Programas de captura (continuos, nocturnos, etc.)
-
Interrupciones de captura y eventos no planificados
-
Alcance temporal resultante
-
Método de clasificación (expertos, colaboración abierta, IA)
-
Granularidad y alcance de la clasificación (es decir, qué órganismos detectables fueron clasificados: todos los animales, solo mamíferos, únicamente individuos conocidos, etc.)
-
Alcance taxonómico resultante
-
Filtración de datos antes de la publication
Los sistemas de gestión de datos normalmente organizan esta información en las siguientes clases: proyecto, subproyecto, organización y participante (ver la Figura 1).
3.2.1. Participantes y roles
Un participante es una persona asociada a un proyecto de cámaras trampa. La información que se captura sobre un participante normalmente es su nombre, apellido, correo electrónico y ORCID. Los roles de un participante se definen en relación al proyecto (p. ej. investigador principal, persona de contacto) y organización (p. ej., investigador) (ver la Figura 1). Se utilizan diferentes nombres para roles similares (ver la Tabla 3). Recomendamos simplificarlos a un conjunto limitado de valores controlados (p. ej., package.contributors.role) al publicar datos.
| Camtrap DP | CTMS (Forrester et al. 2016) | Protocolo de metadatos de cámara de vida silvestre (Resources Information Standards Committee RISC 2019) | DataCite (DataCite Metadata Working Group 2021) | EML (GBIF Secretariat 2015) | Agouti (Casaer et al. 2019) | Wildlife Insights (Ahumada et al. 2020) |
|---|---|---|---|---|---|---|
contact |
Contacto del proyecto |
Coordinador del proyecto |
Persona de contacto |
Punto de contacto |
Coordinador del proyecto |
Dueño del proyecto |
principalInvestigator |
Investigador principal |
ProjectLeader |
Dueño |
Investigador principal |
Dueño del proyecto |
|
rightsHolder |
RightsHolder |
|||||
publisher |
Distribuidor |
Distribuidor Publicador |
||||
contributor |
Secuencia identificada por |
Miembro del equipo |
Gestor de datos |
Curador |
Administrador |
Editor del proyecto |
Otro |
Usuario Procesador Revisor Proveedor de metadatos |
Solo vista Simulado Esperando acceso |
Visor de proyecto |
3.3. Archivos multimedia
Los Media files son los datos crudos que recolecta una cámara trampa. Para la mayoría de los estudios de cámaras trampa, estas serán images (ver la Figura 3 para un ejemplo), pero las cámaras trampa modernas también pueden grabar otros tipos de medios, tal como video o sonido. Los videos pueden capturar el comportamiento animal con más detalle que las imágenes y a menudo son adecuados para su divulgación, pero requieren más batería, archivos de mayor tamaño y son más difíciles de procesar.
Un compromiso utilizado a menudo es tomar una serie de imágenes cuando se activa una cámara (por ejemplo, 10 imágenes, 1 segundo de separación). Cuando se procesan los archivos multimedia, esas imágenes relacionadas se pueden combinar en una secuencia. Una secuencia no solo combina imágenes resultantes de un solo disparo, también combina desencadenadores consecutivos que caen dentro de un independence interval preestablecido (p. ej., 120s). De esa manera, la actividad continuada se capturó en un solo secuencia/[event] (ver la Tabla 4).
Una cámara también graba metadatos al crear un archivo multimedia. Esto puede incluir fecha y hora, ajustes de la cámara (como velocidad de obturación, nivel de exposición, estado del flash) y otras propiedades. Para imágenes, esta información se almacena como parte del archivo y se expresa en el Formato de Archivo de Imagen Intercambiable (EXIF) (ver la Tabla 5). Los metadatos para videos son menos estandarizados, aunque algunos formatos como AVI y MOV soportan EXIF.
Los sistemas de gestión de datos normalmente organizan archivos multimedia y los metadatos asociados en las siguientes clases: multimedia, media type y secuencia (verFigura 1).
| Propiedad | Valor |
|---|---|
Tipo de archivo |
JPEG |
Tipo MIME |
imagen/jpeg |
Ancho de imagen |
2048 pixels |
Altura de imagen |
1440 pixels |
Resolución horizontal |
72 dpi |
Resolución vertical |
72 dpi |
Versión de EXIF |
0220 |
Marca |
RECONYX |
Modelo |
HYPERFIRE 2 COVERT |
Fecha y hora original |
2020:06:12T06:04:32Z |
Desplazamiento de la zona horaria |
N/D |
Tiempo de exposición / velocidad de obturación |
1/85 |
ISO |
200 |
Gama de color |
sRGB |
Flash |
Auto, activado |
Modo de exposición |
Auto |
Balance de blancos |
Manual |
Tipo de captura de escena |
Estándar |
3.3.1. Fecha y hora
La fecha y hora en que se registró un archivo multimedia es el aspecto más importante de sus metadatos. Esta información se utiliza para evaluar cuándo se observaron animales y no es posible encontrarlos más tarde (en contraste con, p. ej., la [location]). Dado que esta información se deriva del reloj interno de la cámara, es fundamental verificar que está configurado correctamente. Recomendamos ajustar el reloj a Coordinated Universal Time (UTC) o la hora local de invierno. Desactive el cambio automático al horario de verano y registre la zona horaria utilizada como parte del despliegue.
3.3.2. Nombre de archivo
Los archivos multimedia son administrados mejor por un data management system. Si usted mismo administra sus archivos multimedia, le recomendamos las siguientes convenciones de nombres de archivos y directorios:
-
Evite renombrar los nombres de los archivos multimedia. En su lugar, organice archivos multimedia en un directorio para cada despliegue. Esto también evita que los nombres de archivos crudos se superpongan de una cámara a otra. Tenga en cuenta que las rutas de archivos pueden ser utilizadas como identificadores en datos de clasificación.
-
Asegúrese de que ordenar los archivos alfabéticamente también los ordene cronológicamente. Este es ya probablemente el caso de nombres de archivo asignados secuencialmente (p. ej.,
IMG_4545.jpg). De lo contrario, inicie el nombre con la fecha (AAAAMMDD) o fecha y hora (AAAAMMDD_HHMMSS). Esto también puede ser útil para nombres de directorios. -
Si está nombrando archivos, use separación con guión bajo [snake case] (
imagen_1), separación con guión [hyphen case] (imagen-1) o separación por mayúsculas [camel case] (imagen1oarchivoVideo1) en lugar de espacio en blanco (imagen 1). Evite los caracteres especiales. -
No guarde información de clasificación como parte del nombre del archivo multimedia.
-
Sea consistente.
# Bien PICT0001.JPG 20200709_093352.JPG # Mal: no puede ser ordenado cronológicamente 09072020_093352. JPG # Mal: contiene información de clasificación 20200709_093352_Ardea_alba_1_Anas_platyrhynelig_macho_hembra.jpg # Mal: contiene espacios y caracteres especiales dep 2021 't WAD
3.3.3. Almacenamiento
Debido al gran volumen de datos generados, no es trivial almacenar, respaldar y gestionar archivos multimedia de forma segura. Se recomiendan servicios en la nube o servicios institucionales bien administrados, pero estos tienen un costo considerable. Recomendamos el uso de un data management system en línea para almacenar sus archivos multimedia. Algunos ofrecen este almacenamiento de forma gratuita. También es muy útil si su sistema de almacenamiento de datos puede servir archivos multimedia sobre http/https, usando stable URLs y opcionalmente autenticación. Esto le permite referenciar/enlazar directamente archivos multimedia en un conjunto de datos publicado (ver accessURI). Este servicio es proporcionado, por ejemplo, por Agouti (Casaer et al. 2019) (a través de https://multimedia.agouti.eu/assets/), Flickr [https://www.flickr.com/] (a través de https://www.flickr. om/servicios/api/) y en menor medida Zenodo [https://zenodo.org/] (limitado a 100 archivos a través del indocumentado https://zenodo.org/record/{record_id}/files/{file}).
3.4. Despliegues
Un despliegue es la colocación espacial y temporal de una cámara. Los despliegues finalizan retirando o reemplazando la cámara, cambiando su posición o cambiando su tarjeta de memoria. Los media files resultantes están asociados con ese despliegue y están mejor organizados como tal. La información de despliegue incluye [location], duración, alineación y ajustes de cámara y otras covariables como uso de cebo, tipo de características, hábitat, cobertura de dosel arbóreo, etc. (ver la Tabla 6). Esta información no es capturada por la cámara y debe registrarse manualmente. Tenga en cuenta que incluso la duración puede ser más larga que la fecha y hora del primer y último archivo de medios capturado.
Los sistemas de gestión de datos normalmente organizan despliegues en las siguientes clases: <deployment>>, [location], cámara, deployment group y subproyecto (ver la Figura 1).
| Propiedad | Valor |
|---|---|
ID de despliegue |
00a2c20d |
Fecha/hora de inicio |
2020-05-30T04:57:37+02:00 (= 2020-05-30T02:57:37Z) |
Fecha/hora de fin |
2020-07-01T11:41:41+02:00 (= 2020-07-01T09:41:41Z) |
ID de ubicación |
e254a13c |
Nombre de ubicación |
B_HS_val 2_processiepark |
Latitud |
51.496 |
Longitud |
4.774 |
Incertidumbre de coordenadas |
187 m |
Otra información de ubicación |
posición:arriba de arroyo |
Cámara configurada por |
anonimizado:3eb30aa |
ID de cámara |
320 |
Modelo de cámara |
Reconyx-HF2X |
Retraso de cámara |
0 s |
Peso de cámara |
1,30 m |
Profundidad de la cámara |
|
Inclinación de la cámara |
-15 ° |
Dirección de la cámara |
285 ° |
Distancia de detección |
3,20 m |
Problemas de fecha y hora |
falso |
Uso de cebo |
falso |
Hábitat |
Región de Campine con una serie de valles fluviales con praderas valiosas |
3.4.1. Nombre de columna
La información de despliegue se registra mejor en un data management system. Si administra su información de despliegue en otros lugares (por ejemplo, una hoja de cálculo), le recomendamos las siguientes convenciones para nombrar las columnas:
-
Utilice nombres descriptivos, para que los usuarios tienen una idea de qué información esperar.
-
Separar palabras usando guión bajo [snake case] (
ubicación_despliegue_1), guión [hyphen case](despliegue-ubicación-1) o mayúsculas [camel case] (despliegueUbicación1) en lugar de espacios (ubicación de despliegue 1). El uso del guión bajo garantiza el nivel de interoperabilidad más alto entre sistemas, el uso de la separación por mayúsculas se utiliza con mayor frecuencia en los estándares de datos. -
Evite abreviaturas para mitigar el riesgo de confusión, excepto con palabras conocidas como ID para identificador.
-
Evite incluir unidades y tipos de datos. Describa estos datos en otras partes (p. ej., en una hoja separada, documento README o Table Schema), junto con la definición de la columna y los valores controlados (ver la Tabla 7).
-
Sea consistente.
# Bien nombreCientífico despligue_grupo # Mal: contiene espacios nombre científico # Mal: abreviado desp_gr # Mal: nombres inconsistentes latitud y longitudcoordenadas # Mal: incluye unidades o tipos de datos altura_cámara_metros_doble
| Nombre de columna | Definición | Notas | Unidad | Tipo de datos | Requerido (s/n) |
|---|---|---|---|---|---|
deploymentID |
Identificador único del despliegue. |
Este identificador se genera automáticamente. |
cadena |
sí |
|
deploymentStart |
Fecha y hora en que comenzó el despliegue. |
Formateado como |
fecha y hora |
sí |
|
deploymentEnd |
Fecha y hora en que finalizó el despliegue. |
Formateado como |
fecha y hora |
sí |
|
latitude |
Latitud de la ubicación de despliegue. |
Usa el datum WGS84. |
grados decimales |
número |
sí |
longitude |
Longitud de la ubicación de despliegue. |
Usa el dato WGS84. |
grados decimales |
número |
sí |
cameraHeight |
Altura a la que se desplegó la cámara. |
metros |
número |
no |
|
cameraHeading |
Ángulo en el que la cámara fue desplegada en el plano horizontal. |
Los valores (0-360) comienzan en sentido horario desde el norte, por lo que 0 = norte, 90 = este, 180 = sur, 270 = oeste. |
grados decimales |
número |
no |
3.4.2. Localización
Una [location] es el lugar físico donde se encuentra una cámara durante un despliegue. Se puede describir con un nombre, identificador y/o descripción, pero recomendamos siempre registrar las coordenadas geográficas geographical coordinates. Estas se expresan más comúnmente como latitud y longitud en grados decimales, usando el datum WGS84 WGS84.
Las coordenadas se determinan mejor mediante un receptor GPS en la propia ubicación. Si esto no es posible, utilice recursos (en línea) y buenas prácticas de georeferenciación (Chapman and Wieczorek 2020) para obtenerlos. Además de las coordenadas y el datum geodésico (p. ej., WGS84) es importante registrar la incertidumbre de las coordenadas uncertainty of the coordinates, que se ve afectada por varios factores:
-
La extensión extent de la ubicación. Tenga en cuenta que para las cámaras trampa esto incluye la detection distance, que normalmente está entre 5 y 20 metros.
-
La precisión del receptor GPS o recurso de georreferencia. La mayoría de los receptores GPS tienen una precisión de 5 metros en áreas abiertas cuando utilizan cuatro o más satélites (Chapman and Wieczorek 2020). El dosel del bosque o la conexión satelital limitada pueden reducir la precisión. Google Maps u Open Street Maps tienen una precisión de 8m (Chapman and Wieczorek 2020).
-
La precisión de las coordenadas coordinate precision. Cuanto menos precisa (y más cerca del ecuador) mayor es la incertidumbre, p.ej., las coordenadas WGS84 con una precisión de 0,001 grados tienen una incertidumbre de 157 metros en el ecuador (ver la Tabla 3 Table 3 en Chapman and Wieczorek (2020)).
-
Un unknown datum. Esto puede ir de centímetros a kilómetros (Chapman and Wieczorek 2020), por lo que siempre es importante registrar el datum utilizado por el receptor GPS o el recurso de georeferenciación (WGS84 para Google Maps u Open Street Maps).
-
La incertidumbre máxima combinada se expresa de forma más conveniente como una incertidumbre de coordinación en metros, permitiendo que la ubicación se describa con el método punto-radiofónico.
La incertidumbre máxima combinada se expresa de forma más conveniente como una incertidumbre de coordenada en metros, permitiendo que la ubicación se describa con el método punto-radio point-radius-method.
La mayoría de las otras propiedades asociadas con una ubicación como país y estado, pero incluso elevación, pendiente, cubierta de tierra o índice de área de hoja, puede derivarse de las coordenadas utilizando un recurso en línea.
3.4.3. Modelo de cámara, ajustes y alineación
Dado que un despliegue se relaciona con la colocación de una cámara, es importante registrar información sobre su modelo, configuración y alineación. El modelo consiste en nombre del fabricante y el nombre del modelo (p. ej., Reconyx-PC800). Excepto para el quiet period, la mayoría de los ajustes de la cámara normalmente se registran automáticamente como parte de los metadatos EXIF. La detection distance puede variar mucho dependiendo del terreno y la vegetación, y se mide mejor en el campo haciendo que alguien se mueva delante de la cámara a diferentes distancias. La alineación es la colocación física de una cámara en espacio 3D. Consiste en camera height, camera depth, camera tilt y camera heading.
3.4.4. Grupos de despliegue
Puede ser útil categorizar despliegues en deployment groups para facilitar su gestión y análisis de datos. Un grupo de despliegue puede ser temático (p. ej., despliegue emparejado), espacial (p. ej. tierra privada, bosque abierto) o temporal (por ejemplo, verano de 2005) en la naturaleza (ver la Figura 4). Un solo despliegue puede pertenecer a cero o más grupos de despliegue. Los Subprojects son un tipo especial de grupo de despliegue utilizado para subdividir proyectos muy grandes que contienen muchos miles de despliegues. Esto facilita su gestión. Un solo despliegue puede pertenecer a un solo subproyecto.
3.4.5. Covariantes
Las covariantes son variables que pueden afectar el comportamiento y, por tanto, la detección de animales. Registrar estas variables es importante para un análisis más profundo de los datos. Bait, feature type y habitat type son covariables comúnmente registradas. El qué y el cómo registrar covariantes debe ser consistente dentro de un proyecto, pero normalmente no es así entre proyectos, a menos que formen parte de un estudio de investigación más amplio y bien coordinado. Para facilitar la interoperabilidad, recomendamos hacer uso de los sistemas de clasificación existentes para registrar covariables:
-
Biomas/ecorregiones (Dinerstein et al. 2017)
-
Características ecológicas:
-
COMBINE (Soria et al. 2021)
-
PanTHERIA (Jones et al. 2009)
-
EltonTraits (Wilman et al. 2014)
-
AmphiBIO (Oliveira et al. 2017)
-
GlobTherm (Bennett et al. 2018)
-
AVONET (Tobias et al. 2022)
-
-
Clasificación de hábitat (Jung et al. 2020)
-
Productos de cobertura del suelo (Yang et al. 2017; Amatulli et al. 2018) (http://www.earthenv.org)
-
Tipo de cobertura del suelo (Buchhorn et al. 2020)
-
Índice de área foliar (Law et al. 2008)
-
Producción primaria (Zhao et al. 2005)
-
Índice de rigidez del terreno (TRI) (Riley et al. 1999)
3.5. Observaciones
Las Observations son una interpretación de lo que se puede ver u oír en media files. Estas no se limitan a observaciones de especies, sino que también pueden indicar si el archivo de multimedia contiene un vehículo, un humano o un objeto desconocido, o que no se observó nada de interés (blanks). Por eso a veces también se les llama clasificaciones, anotaciones o identificaciones. El objetivo es típicamente registrar qué especies animales fueron observadas, incluyendo opcionalmente información sobre el tamaño de su grupo, la etapa de vida, el sexo y el comportamiento (ver la Tabla 8).
Las observaciones se registran de mejor manera en un data management system, que típicamente organiza observaciones en las siguientes clases: observación, observation type y secuencia (ver la Figura 1). Si administra su información de observación en otros lugares (p. ej., una hoja de cálculo), le recomendamos seguir las mismas column naming conventions para los despliegues.
| Propiedad | Valor |
|---|---|
ID de observación |
05230014 |
Tipo de observación |
animal |
ID de taxón |
GCHS |
Nombre científico |
Ardea cinerea |
Conteo |
1 |
Etapa de vida |
adulto |
Método de clasificación |
humano |
Clasificado por |
Peter Desmet |
Fecha y hora de clasificación |
2023-02-02T13:57:58Z |
3.5.1. Clasificación
Desafortunadamente, las cámaras trampa no proporcionan observaciones directamente. Los archivos multimedia necesitan ser classified para obtener observaciones. Este proceso se puede realizar en diferentes etapas y con diferentes niveles de precisión y granularidad:
-
El medio contiene o does not objetos de interés.
-
Los objetos de interés son humanos o vehículos, o no pueden ser identificados.
-
El objeto de interés es un animal, identificado a un nivel taxonómico alto (p. ej., un roedor).
-
Un animal se identifica a nivel de especie o subespecie (p. ej., Sus scrofa).
-
Un animal se identifica como un indivuduo conocido (por ejemplo, la loba Noëlla).
-
Se registran otras propiedades del animal, como el tamaño del grupo, la etapa de vida, el sexo y el comportamiento.
La clasificación puede ser hecha por humanos y/o máquinas. Estos actores (expertos, voluntarios, IA) pueden alcanzar diferentes niveles de precisión (ver la Tabla 9), en base a su experiencia (¿puedo llegar a tal precisión?) y esfuerzo (¿quiero llegar a tal precisión?). Dado que la clasificación puede ser muy intensiva en mano de obra para estudios más grandes, es mejor utilizar un enfoque que produzca los datos necesarios de manera eficiente. La ciencia ciudadana, la inteligencia artificial y/o los events de clasificación, más que los archivos multimedia individuales son los que pueden ayudar a acelerar el proceso (Green et al. 2020). Cualquiera que sea la técnica, recomendamos siempre registrar quién hizo la clasificación y qué tipo de técnica (humana vs máquina) fue utilizada.
| Nombre científico | sexo | conteo | comportamiento |
|---|---|---|---|
Anatidae |
4 |
||
Anas platyrhynchos |
4 |
||
Anas platyrhynchos |
macho |
1 |
foraging |
Anas platyrhynchos |
3 |
3.5.2. Ciencia ciudadana
Los Citizen scientists son voluntarios de la comunidad no científica que ayudan a los científicos en su trabajo. Pueden contribuir a los estudios de cámaras trampa de diversas maneras, como la colocación de cámaras y el cambio de tarjetas de memoria. En una práctica llamada colaboración abierta, los investigadores también pueden distribuir la tarea de classifying archivos multimedia, compartiéndolos en línea a una comunidad de científicos ciudadanos. Cada clasificación ayuda a confirmar o mejorar la opinión de la comunidad sobre las especies observadas (Swanson et al. 2015; Hsing et al. 2018).
La mayoría de los proyectos utilizan plataformas en línea establecidas para la colaboración abierta (Fortson et al. 2012; Swanson et al. 2015), (Chimp&See [https://www.zooniverse.org/projects/sassydumbledore/chimp-and-see?language=es]), tal como Zooniverse (Simpson et al. 2014), MammalWeb (Bradley 2017), Digivol (Alony et al. 2020) o DoeDat (Groom et al. 2018). Estas plataformas dan acceso a grandes bases de voluntariado ya existentes, lo que es especialmente importante si se necesitan clasificaciones en un plazo breve. Tenga en cuenta, sin embargo, que la gestión de un proyecto de ciencia ciudadana lleva tiempo y podría ser más conveniente para estudios más grandes. Además de subir archivos multimedia a una plataforma, esperar clasificaciones, descargar observaciones consensuadas y tratar con observaciones no consensuadas, necesita mantener a la comunidad comprometida y/o atraer nuevos miembros. También es importante excluir sensitive media del proceso, tales como los archivos multimedia que contienen humanos (para proteger su privacidad) y especies raras. Esto requerirá algún tipo de preprocesamiento, que es donde entra la inteligencia artificial (IA) (Weinstein 2018).
3.5.3. Inteligencia artificial
En el contexto de la investigación con cámaras trampa, la inteligencia artificial (IA) normalmente se refiere al uso de computer vision para la clasificación. Estos modelos de computadora son trained con conjuntos de datos ya clasificados y pueden procesar millones de archivos multimedia en una fracción del tiempo que le tomaría a un humano (Norouzzadeh et al. 2021). El campo ha sido testigo de avances significativos en los últimos años y ahora los modelos pueden filtrar registros en blanks y archivos multimedia que contienen humanos, reconocer especies, contar o rastrear individuos, así como reconocer animales individuales cite:[price-tack-2016,gomez-villa-2017,nguyen-2017,brides-2018,norouzzadeh-2020,yousif-2018. Salen modelos nuevos todos los años, pero es especialmente su incorporación en data management systems lo que aumentará su uso, especialmente por usuarios que no tienen experiencia en el aprendizaje automático. Como tal, es probable que la visión de computadora se convierta en la técnica dominante para clasificar los datos de las cámaras trampa en un futuro próximo.
Aun así, la visión informática no reemplazará por completo la clasificación humana, ya que se necesita un número grande y diverso de datos preprocesados para entrenar los modelos. Los conjuntos de datos de entrenamiento desequilibrados pueden producir un bajo rendimiento de los modelos, tales como conjuntos de datos de capacitación con un número muy variable de imágenes de cada especie, o pequeños conjuntos de datos geográficamente limitados. Además, la precisión de la clasificación de la visión informática sigue siendo actualmente secundaria a la de un experto humano. Por lo tanto, se recomienda una combinación de preprocesamiento con ayuda de la IA y verificación humana.
3.5.4. Clasificación basada en archivos multimedia o en eventos
Las clasificaciones pueden basarse en un único archivo multimedia (normalmente una imagen) o un [event] (normalmente una secuencia de imágenes). En esta última técnica, todos los archivos multimedia que pertenecen al [event] se evalúan como un todo para determinar la especie y su número de individuos. Esto consume menos tiempo para las clasificaciones humanas y puede dar lugar a mejores estimaciones del tamaño del grupo, ya que el número de individuos que pasan por una cámara puede ser mayor que los que se pueden ver en una sola imagen. La desventaja de la clasificación basada en eventos es que no es posible dividir la clasificación en eventos más cortos que el que se evalúa (lo mismo puede decirse de los vídeos clasificados como un todo). Estas clasificaciones tampoco pueden utilizarse para entrenar modelos informáticos, que requieren conjuntos de datos de entrenamiento basados en archivos multimedia.
Como resultado, los data management systems pueden favorecer una técnica sobre la otra, u ofrecer ambas. Los conjuntos de datos resultantes pueden incluir clasificaciones basadas en medios, basadas en eventos o ambos tipos de estas.
3.5.5. Nombres comunes o científicos
Los archivos multimedia pueden clasificarse usando nombres comunes (p. ej., zorro gris) o científicos (por ejemplo, Lycalopex gymnocercus) para taxones. Los nombres comunes (o vernáculos) son más fáciles de recordar y permiten una mejor participación del público. El inconveniente es que están sujetos a la traducción, pueden variar a nivel regional, a veces referirse a diferentes especies (p. ej. "elk" en Norteamérica se refiere a Cervus canadensis, mientras que en Europa se utiliza para Alces alces) y podría no existir para cada especie o combinación de lenguajes. Por otra parte, los nombres científicos siguen estrictas reglas nomenclaturales, son globalmente consistentes y no están sujetos a traducción. Por lo tanto, recomendamos siempre almacenar el nombre científico como parte de la observación, incluso si sólo se presentan nombres comunes al usuario.
La lista de nombres científicos disponibles para la clasificación en un proyecto se mantiene mejor en una única tabla de referencia. Esto facilita el manejo de la clasificación taxonómica y los nombres comunes asociados, y permite restringir las opciones de clasificación a aquellas especies que sea probable que aparezcan. Se pueden añadir más taxones si es necesario, pero sólo después de la verificación. Esta práctica es utilizada por la mayoría de los data management systems. Para completar la tabla de referencia, recomendamos utilizar una fuente autorizada (ver la Tabla 10) y almacenar los identificadores de taxón utilizados por esa fuente como referencia.
| Fuente | Covertura taxonómica | Usar para |
|---|---|---|
Todos |
Nombres científicos+
Nombres comunes (seleccionar idiomas) |
|
Registro Mundial de Especies Marinas (WoRMS) (WoRMS Editorial Board 2023) Especies marinas (no exclusivamente) |
Nombres científicos |
Wikipedia (versiones en inglés y en otros idiomas) |
Todos |
Nombres comunes (muchos idiomas) |
Lista de Clements de aves del mundo (Clements et al. 2022) |
Aves |
Nombres científicos |
|
Mamíferos |
Nombres científicos |
Base de datos de diversidad de mamíferos de la American Society of Mammalogists |
3.6. Sistemas de gestión de datos
La gestión de los datos de las cámaras trampa puede ser abrumadora, especialmente para proyectos más grandes. Afortunadamente, se han desarrollado varias herramientas de software y plataformas para ayudar a los investigadores con algunos o todos los aspectos de la gestión de datos de cámaras trampa (Young et al. 2018). Estas iniciativas a menudo fueron comenzadas por equipos de investigación para facilitar sus propias necesidades, pero algunos han llegado a ser sistemas completos que pueden ser utilizados por cualquiera. Discutimos y recomendamos cinco de ellos a continuación (ver la Tabla 11 para una visión general de sus características). Soportan todo el ciclo de vida de la gestión de datos de cámara trampa:
-
Crean uno o más proyectos
-
Invitan a collaborators con distintos niveles de acceso
-
Subir medios y crear despliegues
-
Classify archivos multimedia para observaciones, apoyados opcionalmente por AI y citizen science
-
Gestionan listas de referencias de especies, ubicaciones, covariantes, etc.
-
Incorporan al público haciendo que algunos o todos los metadatos del proyecto estén disponibles en un sitio web
-
Exportan datos en un formato estandarizado para análisis y publicación de datos
-
Archivan datos, incluyendo archivos multimedia
3.6.1. Agouti
Agouti (Casaer et al. 2019) (https://agouti.eu) es un sistema en línea para gestionar los datos de las cámaras trampa. Es mantenido por la Wageningen University & Research y el Instituto de Investigación para la Naturaleza y los Bosques (INBO), con sede respectiva en los Países Bajos y Bélgica. Agouti es utilizado principalmente por proyectos europeos y es de uso gratuito.
La clasificación se basa en eventos, pero las posiciones de los animales se pueden registrar a nivel del archivo multimedia, permitiendo registrar los datos necesarios para los análisis a distancia (Howe et al. 2017) y el modelado de encuentros aleatorios (Marcus Rowcliffe et al. 2011). La clasificación con IA es posible, utilizando un modelo específico de clasificación de especies que se actualiza regularmente. Los archivos multimedia que contienen seres humanos siempre están ocultos al público. Los datos se almacenan en la infraestructura universitaria, que también ofrece archivos a largo plazo y enlaces directos a los archivos multimedia. Los metadatos del proyecto pueden estar disponibles a través de un portal público. Los datos pueden ser exportados como Camtrap DP.
Agouti es una buena elección para las organizaciones que quieren un servicio europeo completo gratuito.
3.6.2. Camelot
Camelot (Hendry and Mann 2018) (https://camelotproject.org/) es un sistema local para gestionar los datos de las cámaras trampa. Se mantiene como una iniciativa de voluntariado con sede en Australia. Camelot es de uso gratuito, de código abierto, disponible para todos los principales sistemas operativos y requiere instalación. Normalmente se utiliza como una aplicación de escritorio local, pero puede configurarse en un servidor que permite a varios usuarios conectarse a través de su navegador. La clasificación es basada en archivos multimedia con la opción de clasificar múltiples archivos a la vez. No se ofrece clasificación por IA. Los datos pueden ser exportados en un formato personalizado.
Camelot es una buena opción para organizaciones e individuos que quieren una solución ligera que puedan gestionar por su cuenta.
3.6.3. TRAPPER
TRAPPER (Bubnicki et al. 2016) (https://os-conservation.org/projects/trapper) es un sistema en línea para gestionar los datos de las cámara trampa. Es mantenido por el Open Science Conservation Fund, radicado en Polonia. TRAPPER es utilizado principalmente por proyectos europeos y es de uso gratuito. El software es de código abierto y requiere instalación y alojamiento. La clasificación es basada en archivos multimedia con la opción de clasificar múltiples archivos a la vez. La clasificación por IA es posible, utilizando modelos de clasificación de especies existentes. Los datos pueden ser exportados como Camtrap DP.
TRAPPER es una buena opción para las organizaciones que quieren controlar el software y donde se almacenan sus datos.
3.6.4. Wildlife Insights
Wildlife Insights (Ahumada et al. 2020) (https://www.wildlifeinsights.org) es un sistema en línea para gestionar los datos de las cámaras trampa. Es mantenido por Conservación Internacional, Google y otros socios, con sede en los Estados Unidos. Wildlife Insights se utiliza principalmente en proyectos en América y utiliza un modelo de suscripción por categorías (incluyendo niveles gratuitos). Los archivos multimedia subidos se clasifican automáticamente a nivel de multimedia por IA, utilizando un modelo de clasificación específico desarrollado por Google. Los archivos multimedia que contienen seres humanos siempre están ocultos al público. La clasificación adicional tiene la opción de clasificar varios archivos a la vez. Los datos se almacenan en la nube, puede ser utilizado por Wildlife Insights para entrenar IA y debe hacerse público después de un período máximo de embargo de 48 meses. Los metadatos del proyecto siempre están disponibles a través de un portal público. Los datos pueden exportarse en un formato personalizado, basado en CTMS (Forrester et al. 2016).
Wildlife Insights es una buena opción para organizaciones que quieren un servicio completo con fuertes requisitos de IA y datos abiertos.
3.6.5. WildTrax
WildTrax (Bayne et al. 2018) (https://www.wildtrax.ca/) es un sistema en línea para gestionar los datos de las cámaras trampa. Es mantenido por la Universidad de Alberta, con sede en Canadá. WildTrax es utilizado principalmente por proyectos canadienses y es de uso gratuito (excepto para proyectos muy grandes). La clasificación es basada en archivos multimedia con la opción de clasificar múltiples archivos a la vez. La clasificación por IA es posible, pero sólo a un nivel amplio (blancos, animales, vehículos), la clasificación de especies (todavía) no se ofrece. Los datos se almacenan en la nube. Los metadatos del proyecto pueden estar disponibles a través de un portal público. Los datos pueden ser exportados en un formato personalizado (con el paquete R asociado).
WildTrax es una buena elección para organizaciones que quieren un servicio gratuito con sede en Canadá.
| Característica | Agouti | Camelot | TRAPPER | Wildlife Insights |
|---|---|---|---|---|
Proporcionado como |
Servicio |
Software |
Software |
Servicio |
Costo |
Gratuito |
Gratuito |
Gratuito |
Modelo de suscripción en niveles (incl. gratuito) |
Código abierto |
No |
Sí |
Sí |
No |
Supported media types |
Image, Video |
Image |
Image, Video |
Image |
Tipos de archivos soportados |
Sí |
Sí (limitado) |
Sí |
Sí |
Idiomas soportados |
Inglés, croata, neerlandés, francés alemán, polaco español |
Inglés |
Inglés |
Muchos (a través del traductor de Google) |
Clasificación basada en archivos multimedia o eventos |
Basada en eventos |
Basada en archivos |
Basada en archivos |
Basada en archivos |
Clasificación IA |
Sí (clasificación de especies) |
No |
Sí (clasificación de especies) |
Sí (clasificación de especies) |
Integración con plataforma de colaboración abierta |
Sí (Zooniverse) |
No |
Sí |
No |
Portal del proyecto |
Sí |
No |
No |
Sí |
Almacenamiento de datos |
Infraestructura universitaria |
Servidor propio |
Servidor propio o nube |
Nube (Google Cloud Platform) |
Derechos de datos otorgados al sistema |
Mínimo |
Ninguno |
Ninguno |
Algunos (p. ej., para del entrenamiento de la IA y productos de datos resumidos) |
Requisito de datos abiertos |
No (pero recomendado) |
No |
No (pero recomendado) |
Sí (los datos pueden mantenerse privados durante 48 meses, los metadatos del proyecto son siempre públicos) |
Servidor multimedia |
Sí |
No |
Sí |
Sí |
Formato de exportación |
Camtrap DP |
Formato personalizado |
Camtrap DP |
Formato personalizado |
4. Publicación de datos de cámaras trampa
La publicación de datos es el proceso de abrir los datos de biodiversidad y FAIR (Wilkinson et al. 2016). La adopción de los principios FAIR garantiza que los datos de sus cámaras trampa puedan encontrarse, consultarse, integrarse y reutilizarse (ver la Sección 4.1) para muchas aplicaciones, desde casos de uso biológico (modelo de distribución de especies, estimación de densidad de población, etc.) hasta proporcionar datos de capacitación para el desarrollo de modelos de machine learning. Recomendamos el uso de la Herramienta para la publicación integrada de datos (IPT) GBIF (Robertson et al. 2014) para hacerlo. Facilita la publicación de datos y el registro en el Centro de Información sobre la Biodiversidad Global (GBIF), una red internacional e infraestructura de datos para datos de biodiversidad.
Antes de publicar a través de GBIF, debe preparar (ver la Sección 4.2) y normalizar sus datos. La estandarización de datos es la transformación de datos a un data exchange format específico para que se vuelva interoperable con otros datos en GBIF. GBIF soporta Camtrap DP y Darwin Core Archive como los formatos de intercambio de datos de cámaras trampa. Las recomendaciones para estos formatos se proporcionan en la Sección 4.3 y la Sección 4.4 respectivamente.
Recomendamos encarecidamente publicar datos de cámaras trampa a nivel de proyecto, es decir, un conjunto de datos por proyecto. Esto hace más fácil describir el alcance, la metodología, los colaboradores, las fuentes de financiación, etc. en los metadatos. Para obtener una visión general sobre cómo publicar datos a GBIF, consulte GBIF Secretariat (2018).
4.1. Datos FAIR de cámara trampa
Imagínese que necesita añadir todas las observaciones de ratas almizcleras registradas en Bélgica en 2023. Hacerlo es difícil si los datos se encuentran dispersos en distintas fuentes y utilizan diferentes protocolos, nombres de campo e idiomas. Hacer estas fuentes de datos FAIR significa organizarlas de tal manera que todos (humanos y máquinas) puedan encontrarlas, usarlas, entenderlas y combinarlas.
La forma más fácil de hacer un conjunto de datos localizable es proporcionando metadatos significativos (p. ej. título, descripción y palabras clave) y depositarlo en un repositorio de investigación (como el IPT de GBIF (Robertson et al. 2014)). Los repositorios proporcionan funcionalidades de búsqueda de conjuntos de datos cruzados y asignarán a cada conjunto de datos un unique identifier para que pueda ser referenciado únicamente y accedido. Agregar una license abierta al conjunto de datos permitirá que los usuarios puedan acceder y reutilizar los datos (además de los metadatos), mientras que los rich metadata (p. ej., metodología) permitirán a los usuarios determinar si el conjunto de datos es adecuado para su propósito. El aspecto más desafiante es hacer un conjunto de datos interoperable para que pueda integrarse fácilmente con otros datos. Esto puede lograrse mediante el uso de estándares: repositorios de datos estandarizarán los metadatos y se puede utilizar Camtrap DP para estandarizar los datos. Ver también Bubnicki et al. (2023) (sección "Is Camtrap DP FAIR?") para más información sobre cómo Camtrap DP permite el intercambio de datos FAIR.
4.2. Preparar datos
4.2.1. Identificadores únicos estables
Términos como deployments.deploymentID o dwc:occurrenceID [dwc:IDocurrencia] esperan un identificador que:
-
Se requiere que sea único, es decir, se refiere de forma única a un registro o concepto.
-
Se recomienda firmemente que sea estable/persistente, es decir, no cambia con el tiempo y puede ser referenciado con seguridad.
-
Se recomienda que sea único globalmente, es decir, se refiera de forma única a un registro o concepto en un contexto global.
Si está disponible, recomendamos utilizar el identificador asignado por el data management system, tal como esté. Estos identificadores serán únicos, muy probablemente estables, y a veces únicos a nivel global (por ejemplo, un UUID). También permiten a los usuarios (con acceso) buscar el registro en el sistema de gestión de datos. Recomendamos no añadir elementos al identificador para hacerlo único globalmente, ya que esto lo hace más propenso al cambio. Dado que los conjuntos de datos pueden ser identificados de forma única (p. ej., con un DOI), es suficiente si el identificador es único dentro del conjunto de datos.
4.2.2. Información sensible
Los datos de las cámaras trampa pueden contener información sensible, como información personal (p. ej., nombres o imágenes de personas vivas), la ocurrencia de las especies sensibles (p. ej., raras o en peligro de extinción), las ubicaciones de cámaras gestionadas de manera activa, o incluso notas y comentarios no destinados al público. Recomendamos seguir las buenas prácticas en Chapman (2020), que favorecen la generalización sobre la restricción del registro en su conjunto.
Datos personales
Los datos personales son cualquier información relacionada con una persona viva identificada o identificable. Esta información está sujeta a regulaciones como RGPD. En los datos de la cámara trampa, los datos personales son los nombres de los participants, sus direcciones de correo electrónico y el lugar donde están los participantes que configuraron la cámara (identificable combinando el nombre con la fecha de despliegue y la [location]). En Camtrap DP, los nombres de las personas pueden aparecer en package.contributors, package.bibliographicCitation, deployments.setupBy y observations.classifiedBy. En Darwin Core Archive, los nombres de las personas pueden aparecer en los metadatos y términos como dwc:identifiedBy.
Recomendamos contactar a los participantes para preguntar si su información personal puede hacerse pública y anonimizarla (p. ej., anonymized:3eb30aa) o excluirlo cuando prefieran no hacerlo. Algunos data management system (como Casaer et al. (2019)) permite a los usuarios indicar sus preferencias y anonimizar automáticamente sus datos personales en las exportaciones. Tenga en cuenta que puede no ser posible eliminar permanentemente información personal de versiones antiguas de un conjunto de datos ya publicado.
Archivos multimedia sensibles
Los Media files que contienen personas identificables son una forma de personal data que deben ser identificados y mantenidos privados para proteger la privacidad de las personas. Esto puede ser necesario para archivos multimedia que contienen vehículos o la configuración de la imagen de cámara. Es posible que los archivos multimedia que contienen especies sensibles deban mantenerse privados si se puede identificar la ubicación.
Recomendamos proporcionar la URL a todos los archivos multimedia (en media.filePath or ac:accessURI), pero regulando su acceso a nivel de proveedor (p. ej., https://multimedia.agouti.eu/assets/813bafb2-befe-45fa-b0e3080f1f019a70/file). El acceso esperado puede describirse en media.filePublic o ac:serviceExpectation ac:serviceExpectation. Tenga en cuenta que en un Darwin Core Archive, las observaciones (y los archivos multimedia) de los humanos, los vehículos, la configuración, etc. son típicamente excluidos.
Información de ubicación sensible
Los datos de la cámara trampa pueden contener información de [location] de especies sensibles. Las ubicaciones de cámaras gestionadas de forma activa también pueden ser sensibles al vandalismo y el robo. Recomendamos seguir a Chapman (2020) para determinar la sensibilidad (Capítulo 2) y elegir una generalización apropiada.
|
Tenga en cuenta que la información de ubicación de las cámaras trampa es a menudo la misma a través de múltiples deployments. Generalizar las coordenadas del despliegue con información sensible asociada probablemente no es suficiente para prevenir análisis correlacionales. Una deployments.locationID compartida por múltiples despliegues, por ejemplo, puede llevar a deducciones de localidades/registros que están generalizados. Asegúrese de generalizar las coordenadas para la [location] a través de despliegues. |
Cualquiera que sea el nivel seleccionado de generalización, documéntelo en los metadatos del conjunto de datos y términos apropiados, de modo que los usuarios estén al tanto. Ver la Tabla 12 para un ejemplo.
| Término de Camtrap DP | Término de Darwin Core | No generalizado | Generalizado |
|---|---|---|---|
51.18061 |
51.181 |
||
5.65490 |
5.655 |
||
implícito |
EPSG:4326 |
EPSG:4326 |
|
30 |
187 |
||
0.00001 |
0.001 |
||
fuente asumida como GPS, incertidumbre predeterminada a 30 m |
fuente asumida como GPS, incertidumbre predeterminada a 30 m |
||
coordenadas redondeadas a 0,001 grados |
Otra información sensible
Los campos de texto como comentarios y notas (p. ej., deployments.deploymentComments o dwc:occurrenceRemarks) pueden contener información sensible como person names, sensitive location information o información no destinada al público. Recomendamos verificar valores y generalizar donde sea necesario (ver Capítulo 3 en Chapman (2020)).
4.3. Camptrap DP
Recomendamos el uso del Camera Trap Data Package (Camtrap DP) para publicar datos de cámaras trampa. Está diseñado específicamente para este tipo de datos y puede retener más información que un Darwin Core Archive (Bubnicki et al. 2023). Algunos data management systems lo soportan directamente como formato de exportación (ver la Tabla 11), lo que reduce la necesidad de transformación de datos al publicar a través de GBIF.
Consulte el sitio web de Camtrap DP para ver definiciones de términos, recomendaciones y ejemplos.
No toda la información en un Camtrap DP publicado está actualmente cosechada por GBIF. El modelo de datos GBIF requiere que se transforme a Darwin Core antes de la ingesta. Este proceso es proporcionado por la función write_dwc() en el paquete de software R camtraptor (Oldoni et al. 2023). Esta función implementa las recommendations sugeridas en este documento. GBIF podrá procesar más información a partir de un Camtrap DP publicado una vez que haya implementado un nuevo modelo de datos (GBIF Secretariat 2022).
4.4. Archivo Darwin Core
4.4.1. ¿Por qué no un conjunto de datos de eventos de muestreo?
Con sus eventos jerárquicos (despliegues, secuencias) y observaciones resultantes, parece lógico para expresar datos de cámara trampa como https://www. bif.org/sampling-event-data[Datos de muestreo de evento] con un Event core (ver la Tabla 13) y una Occurrence extension (ver la Tabla 14). Nos permite proporcionar información detallada (aunque repetida) sobre cada tipo de evento y ofrece la posibilidad de añadir una Measurement Or Facts extension con alineación y otra información (principalmente pertinente para el despliegue).
Desafortunadamente también nos impide expresar información sobre los archivos multimedia como una extensión, ya que el diseño de un esquema estrella de Darwin Core Archive no permite relacionar la Occurrence extension con una Audubon Media Description extension. Es técnicamente posible vincular la Audubon Media Description extension con el Event core, pero los archivos no estarían enlazados a las ocurrencias y no aparecerían en páginas de ocurrencia en GBIF.org. La única opción disponible para expresar información sobre los medios en un nivel de ocurrencia sería utilizar dwc:associatedMedia, que lo reduciría a una (lista de) URL. No se puede proporcionar licencia, tipo multimedia, método de captura, cajas de delimitación, etc.
| eventType | eventID | parentEventID | eventDate | Location information |
|---|---|---|---|---|
despliegue |
00a2c20d |
2020-05-30T02:57:37Z/ 2020-07-01T09:41:41Z |
51.496, 4.774 |
|
secuencia |
79204343 |
00a2c20d |
2020-06-12T04:04:29Z/ 2020-06-12T04:04:55Z |
51.496, 4.774 |
multimedia |
e68deaed |
79204343 |
2020-06-12T04:04:29Z |
51.496, 4.774 |
multimedia |
c5efbcb3 |
79204343 |
2020-06-12T04:04:30Z |
51.496, 4.774 |
| occurrenceID | eventID | scientificName | associatedMedia |
|---|---|---|---|
e68deaed_2 |
e68deaed |
Anas platyrhynchos |
https://multimedia.agouti.eu/assets/e68deaed-a64e-4999-87a3-9aa0edf5970d/file |
c5efbcb3_2 |
c5efbcb3 |
Anas platyrhynchos |
https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file |
05230014 |
79204343 |
Ardea cinerea |
https://multimedia.agouti.eu/assets/e68deaed-a64e-4999-87a3-9aa0edf5970d/file | https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file |
Por lo tanto, recomendamos expresar los datos de las cámaras trampa como un conjunto de datos de Ocurrencia con un Occurrence core y una Audubon Media Description extension (ver la Tabla 15 y la Tabla 16). Esto trata a los archivos multimedia como registros de datos primarios, que es importante dado que son la evidencia en la que se basan las observaciones. La jerarquía de eventos también se puede retener en gran medida, ya que el Occurrence core permite agrupar ocurrencias en eventos (dwc:eventID) y eventos originales (dwc:parentEventID). Al proporcionar el identificador [event]/secuencia en dwc:eventID e identificador de despliegue en dwc:parentEventID, las observaciones pueden agruparse como lo harían en un Event core y GBIF.org creará automáticamente páginas de eventos para ellos (ver la Figura 5). Sin embargo, la información sobre la duración del evento no se puede proporcionar, pero la eventDate y el samplingEffort pueden retener la mayor parte de ella. La información sobre la ubicación de despliegue, el hábitat, el protocolo de muestreo, etc. se repite para cada observación en el despliegue.
Recomendaciones de términos para el Occurrence core y Audubon Media Description extension se proporcionan en la Sección 4.4.2 y en la Sección 4.4.3 respectivamente.
| occurrenceID | eventID | parentEventID | scientificName | eventDate | Location information |
|---|---|---|---|---|---|
e68deaed_2 |
79204343 |
00a2c20d |
Anas platyrhynchos |
2020-06-12T04:04:29Z |
51.496, 4.774 |
c5efbcb3_2 |
79204343 |
00a2c20d |
Anas platyrhynchos |
2020-06-12T04:04:30Z |
51.496, 4.774 |
05230014 |
79204343 |
00a2c20d |
Ardea cinerea |
2020-06-12T04:04:29Z/ 2020-06-12T04:04:55Z |
51.496, 4.774 |
| occurrenceID | identifier | accessURI | CreateDate | captureDevice | rights |
|---|---|---|---|---|---|
e68deaed_2 |
e68deaed |
https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file |
2020-06-12T04:04:29Z |
Reconyx-HF2X |
|
c5efbcb3_2 |
c5efbcb3 |
https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file |
2020-06-12T04:04:30Z |
Reconyx-HF2X |
|
05230014 |
e68deaed |
https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file |
2020-06-12T04:04:29Z |
Reconyx-HF2X |
|
05230014 |
c5efbcb3 |
https://multimedia.agouti.eu/assets/c5efbcb3-34f5-4a59-bc15-034e01b05475/file |
2020-06-12T04:04:30Z |
Reconyx-HF2X |
4.4.2. Núcleo de registro
Como se describe above, recomendamos usar un Occurrence core para expresar los datos de cámaras trampa como un Darwin Core Archive. Ver la Tabla 17 para recomendaciones de términos. Estas recomendaciones se alinean con los requisitos de calidad de GBIF para los conjuntos de datos de Ocurrencia (GBIF Secretariat 2020) y utilizan la misma terminología (Requerido, Muy recomendable, Compartir si está disponible).
Tenga en cuenta que el Occurrence core sólo debe contener animal observations, de modo que las clasificaciones blanks, vehículos y preferiblemente los humans sean filtradas. El número de registros dependerá del tamaño del estudio, el esfuerzo de clasificación (¿todos los archivos están clasificados?), la precisión de clasificación (ver la Tabla 9) y si se utilizó una media- or event-based classification. Especialmente las clasificaciones basadas en los archivos multimedia pueden aumentar sustancialmente el número de ocurrencias con pocos beneficios adicionales para la investigación ecológica. Camtrap DP está diseñado para ambos, pero al publicar como un Darwin Core Archive, solo recomendamos proporcionar observaciones basadas en eventos si están disponibles.
| Término | Estado | Valor de ejemplo |
|---|---|---|
Compartir si está disponible |
Imagen estática |
|
Compartir si está disponible |
||
Compartir si está disponible |
INBO |
|
Compartir si está disponible |
7cca70f5-ef8c-4f86-85fb-8f070937d7ab |
|
Compartir si está disponible |
Agouti |
|
Compartir si está disponible |
Muestra de: MICA - Observaciones de las cámaras trampa sobre ratas almizcleras y nutrias en Bélgica, Países Bajos y Alemania |
|
Requerido |
MachineObservation |
|
Compartir si está disponible |
coordinates rounded to 0.001 degree |
|
Requerido |
05230014 |
|
Muy recomendado |
1 |
|
Compartir si está disponible |
||
Compartir si está disponible |
adulto |
|
Compartir si está disponible |
||
Muy recomendado |
presente |
|
Compartir si está disponible |
||
Compartir si está disponible |
||
Muy recomendado |
79204343 |
|
Muy recomendado |
00a2c20d |
|
Requerido |
2020-06-12T04:04:29Z/2020-06-12T04:04:55Z |
|
Compartir si está disponible |
Área de Campine con una serie de valles fluviales con praderas valiosas |
|
Muy recomendado |
cámara trampa |
|
Compartir si está disponible |
2020-05-30T02:57:37Z/2020-07-01T09:41:41Z |
|
Compartir si está disponible |
cámara trampa sin cebo cerca sendero de animales |
|
etiquetas:posición:arriba arroyo |
Compartir si está disponible |
|
e254a13c |
Compartir si está disponible |
|
B_HS_val 2_processiepark |
Compartir si está disponible |
|
Compartir si está disponible |
||
Compartir si está disponible |
||
1.30 |
Compartir si está disponible |
|
1.30 |
Muy recomendado |
|
51.496 |
Muy recomendado |
|
4.774 |
Muy recomendado |
|
EPSG:4326 |
Muy recomendado |
|
187 |
Compartir si está disponible |
|
0.001 |
Compartir si está disponible |
|
Peter Desmet |
Compartir si está disponible |
|
2023-02-02T13:57:58Z |
Compartir si está disponible |
|
clasificado por un humano |
Compartir si está disponible |
|
Requerido |
||
Ardea cinerea |
Muy recomendado |
type
La naturaleza del recurso. Utilice StillImage si el registro se basa en una imagen o secuencia de imágenes, MovingImage si se basa en un video. Uno también puede usar el término más amplio Imagen para todos los registros.
licencia
La licencia bajo la cual se comparte el registro de datos. Probablemente esta será la misma licencia que la utilizada para el conjunto de datos pero es posible desviar (Waller 2020). Para permitir un uso amplio, recomendamos publicar datos bajo una exención Creative Commons Zero y proporcionarlo como una URL: https://creativecommons.org/publicodomain/cero/1.0/legalcode. En Camtrap DP, este término corresponde a la ruta de la licencia que tiene los datos del ámbito en el package.licenses, aunque allí se especifica para el conjunto de datos en lugar de por registro.
rightsHolder
La persona u organización (es decir, participante) que posee o gestiona los derechos sobre el recurso. Con toda probabilidad, la organización que decidió bajo qué licencia se publican los datos y/o el editor de los datos (es decir, la organización seleccionada como editora al registrar un conjunto de datos con GBIF). Utilice un acrónimo si la organización tiene uno. En Camtrap DP, este término corresponde con el título del colaborador que tiene el rol tendedordeDerechos en package.contributors.
datasetID & datasetName
Respectivamente el identificador y el nombre del conjunto de datos. Para dwc:datasetID recomendamos usar una URL o identificador estable que permita a los usuarios encontrar información sobre el conjunto de datos/estudio de origen. En orden de preferencia: conjunto de datos DOI (https://doi.org/10. 5468/5tb6ze), estudio URL (http://n2t. et/ark:/63614/ w12001317), o identificador de estudio utilizado por el data management system. En Camtrap DP, este término corresponde con package.id, a menos que haya un identificador mejor disponible (p. ej., un DOI). dwc:datasetName debe referirse al título del conjunto de datos/estudio como se refiere por dwc:datasetID. Recomendamos usar el mismo valor para el título en los metadatos. En Camtrap DP, este término corresponde con package.title.
collectionCode
El nombre o acrónimo que identifica la recolección o conjunto de datos de los que se derivó el registro. Tradicionalmente se utiliza para indicar una colección física, recomendamos proporcionar el nombre del data management system (es decir, colección virtual) de la que derivó el registro. Esto permite a los usuarios buscar registros del mismo sistema de gestión de datos a través de conjuntos de datos. Valores recomendados: Agouti, Camelot, eMammal, Trapper, Wildlife Insights, etc. En Camtrap DP, este término corresponde al título de la fuente (aplicable) en package.sources.
basisOfRecord
La naturaleza específica del registro. Establecer en MachineObservation para todos los registros. Mientras que los humanos deciden cuándo y cuándo desplegar una cámara trampa, y los humanos o las máquinas (IA) pueden classify archivos, la captura del registro es realizada por una máquina que responde a un sensor. Esto es críticamente diferente de las observaciones humanas, donde un humano controla activamente la decisión de registrar o no un organismo.
dataGeneralizations
Las acciones emprendidas para hacer que los datos publicados sean menos específicos o completos que en su forma original. Recomendamos describir concisamente aquí qué sensitive information del registro fue generalizada y cómo. Tenga en cuenta que esta información se puede proporcionar a nivel de registro y no necesita aplicarse a todo el conjunto de datos. Si la información importante fue omitida por completo, utilice dwc:informationWithheld.
Ejemplos:
coordenadas redondeadas a 0,001 grados nombre científico generalizado a género
occurrenceID
Un identificador para la observación. Utilice un istable unique identifier. En Camtrap DP, este término se corresponde con observations.observationID.
individualCount
El número de individuals. Tenga en cuenta que este número depende de la precision. En Camtrap DP, este término corresponde con observations.count.
sex
El sexo de los individuos observados. Recomendamos usar los valores controlados macho y hembra, que se basan en el Camtrap DP y son compatibles con el vocabulario de sexo GBIF [https://rs. bif.org/ vocabulary/gbif/sex.xml]. En Camtrap DP, este término corresponde con GBIF Sex vocabulary. In Camtrap DP, this term corresponds with observations.sex.
lifeStage
La etapa de vida de los individuos observados. Recomendamos utilizar los valores controlados adulto, subadulto y juvenil, que se basan en el Camtrap DP y son compatibles con el vocabulario GBIF LifeStage. En Camtrap DP, este término se corresponde con observations.lifeStage.
behavior
El comportamiento dominante de los individuos observados. Recomendamos el uso de valores controlados existentes o los suyos propios (por ejemplo, pastando, paciendo, hocicando, vigilando, corriendo, caminando). En Camtrap DP, este término corresponde con observations.behavior.
occurrenceStatus
Una declaración acerca de la presencia o ausencia del taxón en una ubicación. Cuando se reduce a observaciones de especies (filtrando blanks, etc.), los datos de la cámara trampa solo contienen registros de presencia. Establecer en presentar para todos los registros.
occurrenceRemarks
Los comentarios o notas sobre la observación. Estas normalmente son notas (a veces en el idioma nativo del autor) sobre la observación y/o el individuo observado que no fue o no pudo ser registrado en otro campo. Esta información es potencialmente útil para publicar, pero puede contener sensitive information. En Camtrap DP, este término se corresponde con observations.observationComments.
organismID
Un identificador para un individuo observado y conocido que fue reconocido por el anillo de colores, la etiqueta del oído, el patrón de la piel u otras características. Las observaciones con dwc:organismID normalmente tienen dwc:individualCount de 1, a menos que el dwc:organismID se refiera a un grupo conocido. A menos que un identificador único esté disponible y sea conocido por el individuo recomendamos usar el código/identificador asignado dentro del estudio de cámaras trampa al individuo, permitiendo a los usuarios encontrar todas las observaciones de este individuo dentro del conjunto de datos. En Camtrap DP, este término corresponde con observations.individualID.
identificadorDelEvento
Un identificador para el evento al que pertenece la observación. Recomendamos proporcionar el identificador para el [event] (normalmente una secuencia) como se usa para una event-based classification. Usando un Núcleo de ocurrencia, los eventos no tendrán sus propios registros, pero proporcionar su identificador en dwc:eventID permite a los usuarios encontrar todas las observaciones (y medios) para un evento específico. Utilice un stable unique identifier. Tenga en cuenta que GBIF.org agrupará automáticamente observaciones con el mismo dwc:eventID que pertenecen juntos. En Camtrap, este término se corresponde con observations.eventID.
parentEventID
Un identificador para un evento más amplio que los identificados por eventID. Recomendamos proporcionar el identificador del despliegue. Usando un Ocurrence core, los despliegues no tendrán sus propios registros, pero proporcionar su identificador en dwc:parentEventID permite a los usuarios encontrar todas las observaciones (y archivos multimedia) para un despliegue específico. Utilice un identificador único estable. Tenga en cuenta que GBIF.org agrupará automáticamente observaciones con el mismo dwc:parentEventID que pertenecen juntos. En Camtrap DP, este término se corresponde con observations.deploymentID.
fechaDelEvento
La fecha, la fecha-hora o el intervalo fecha-hora durante el que ocurrió el [event]. Recomendamos utilizar una única marca de tiempo para media-based classifications y un intervalo que consista en las marcas de tiempo del inicio y del final del [event] como se identifica por la eventID para event-based classifications. Escriba las marcas de tiempo en formato ISO 8601 (AAAA-MM-DDTHH:MM:SS), utilice / para indicar un intervalo e incluir la zona horaria (+02:00) o convertir e indicar como UTC (Z). En Camtrap DP, este término corresponde a observations.eventStart y observations.eventEnd, u observations.eventStart si ambos son iguales.
Ejemplos:
2020-07-29T05:38:55Z/2020-07-29T05:39:00Z 2020-07-29T05:38:55Z 2020-07-29T07:38:55+02:00
habitat
Una categoría o descripción del hábitat en el que ocurrió el [event]. Este es normalmente el hábitat en el momento de la despliegue, con valores repetidos para todos los registros de este despliegue. Los valores pueden ser controlados, idealmente utilizando un sistema de clasificación existente o descripciones de texto libre. En Camtrap DP, este término corresponde con deployments.habitat.
protocoloDeMuestreo
Los métodos o protocolos utilizados durante el [event]. Recomendamos utilizar el valor controlado cámara trampa. Esto permite a los usuarios buscar registros con este protocolo a través de conjuntos de datos.
samplingEffort
La cantidad de esfuerzo aumentó durante el [event]. Recomendamos proporcionar el intervalo de fecha y hora que se desplegó la cámara trampa, utilizando las mismas convenciones de formato que eventDate. En Camtrap DP, este término corresponde a deployments.deploymentStart y deployments.deploymentEnd].
eventRemarks
Los comentarios o notas sobre el [event]. Estas normalmente son notas (a veces en el idioma nativo del autor) sobre el despliegue que no fue o no pudo ser registrado en otro campo. Esta información es potencialmente útil para publicar, pero puede contener sensitive information. También recomendamos este término para proporcionar otra información (estructurada) asociada al despliegue, tales como uso de cebo, feature type o etiquetas, como valores separados por barras verticales (|). En Camtrap DP, este término corresponde con deployments.deploymentComments y se relaciona con deployments.baitUse, deployments.featureType y deployments.deploymentTags.
Ejemplos:
cámara trampa con cebo cerca de madriguera cámara trampa sin cebo | etiquetas: posición:sobre arroyo mal funcionamiento de cámara el 29/06/2020
locationID
Un identificador para la [location]. Este identificador permite a los usuarios encontrar todas las observaciones (y archivos multimedia) para una ubicación específica (a través de despliegues). Utilice un stable unique identifier. En Camtrap DP, este término corresponde con deployments.locationID.
locality
término:dwc[dwc:locality] (Localidad)
El nombre de la [location]. Este es típicamente un nombre o código asignado dentro del estudio de la cámara trampa. En Camtrap DP, este término corresponde a deployments.locationName.
minimumDepthInMeters & maximumDepthInMeters
La profundidad (en metros) debajo de la superficie local. Para estudios de cámara trampa (marinos), esta es la depth a la que se despliega la cámara. Recomendamos proporcionar una camera depth> o <<camera-height,camera height, no ambos. En Camtrap DP, este término corresponde a deployments.cameraDepth.
minimumDistanceAboveSurfaceInMeters & maximumDistanceAboveSurfaceInMeters
La altura (en metros) sobre una superficie de referencia. Para estudios de cámara trampa, esta es la height a la que se despliega la cámara. Recomendamos proporcionar una camera depth o camera height, no ambos. En Camtrap DP, este término corresponde a deployments.cameraHeight.
decimalLatitude & decimalLongitude
La latitud y longitud geográfica de la [location], en grados decimales. Los valores de latitud están entre -90 y 90, valores de longitud están entre -180 y 180. Para los estudios de cámaras trampa, estos se obtienen normalmente por GPS y se registran en el data management system. Recomendamos proporcionar las coordenadas almacenadas en el sistema de gestión de datos, a menos que necesiten redondearse/generalizarse para proteger sensitive information. En Camtrap DP, estos términos corresponden a deployments.latitude y deployments.longitude respectivamente.
geodeticDatum
El sistema de referencia espacial utilizado para las coordinates geográficas. Para las coordenadas obtenidas por GPS, esto es normalmente EPSG:4326 (es decir, WGS84) (Chapman and Wieczorek 2020). En Camtrap DP, WGS84 se implica para los términos deployments.latitude y deployments.longitude.
coordinateUncertaintyInMeters
La distancia horizontal (en metros) desde las coordinates geográficas describen el círculo más pequeño que contiene la [location]. Recomendamos 30 metros como límite inferior razonable para las coordenadas obtenidas por GPS, pero consulte Sección 3.4.2 para detalles sobre qué elementos contribuyen a la incertidumbre. Las coordenadas Generalized/rounded en particular aumentarán la dwc:coordinateUncertaintyInMeters. En Camtrap DP, este término se corresponde con deployments.coordinateUncertainty.
coordinatePrecision
La precisión decimal de las coordinates> geográficas, si se conoce. Esta información es conocida y recomendamos proporcionarla para coordenadas generalized/rounded (p. ej., 0,001 para las coordenadas que fueron redondeadas a 3 decimales). En Camtrap DP, este término se corresponde con package.coordinatePrecision, aunque allí se especifica para el conjunto de datos en lugar de por registro.
identificadoPor
La persona o modelo de clasificación de especie que identificó a los individuos observados y le asignó el <section-scientificname,nombreCientífico>>. Recomendamos proporcionar un nombre único: el de la persona o modelo que hizo la clasificación (más reciente). Aunque clasificar puede ser más amplio que asignar un nombre científico, es probable que involucre ese aspecto para observaciones animales. Tenga en cuenta que este término contiene datos personales. En Camtrap DP, este término corresponde a observations.classifiedBy.
Ejemplos:
Peter Desmet Modelo de especies de Europa occidental versión 1 anonimizado:3eb30aa
dateIdentified
La fecha o fecha-hora en la que se realizó la identificación. Recomendamos proporcionar una única marca de tiempo: la de la clasificación hecha por la persona o modelo indicados en identificado por. Esta información es normalmente registrada por el sistema de gestión de datos. Escriba las marcas de tiempo en formato ISO 8601 (AAAA-MM-DDTHH:MM:SS), e incluya la zona horaria (+02:00) o convierta e indique como UTC (Z). En Camtrap DP, este término corresponde con observations.classificationTimestamp.
identificationRemarks
Los comentarios o notas sobre la identificación. Recomendamos utilizar este término para proporcionar información sobre si la clasificación se hizo por un humano o modelo de clasificación de especie así como el grado de seguridad si está disponible (a menudo registrado para clasificación de IA). En Camtrap DP, este término se relaciona con observations.classificationMethod y observations.classificationProbability.
Ejemplos:
clasificado por un humano clasificado por una máquina con un grado de certeza de 89%
taxonID
Un identificador para nombreCientífico. Este identificador permite a los usuarios encontrar todas las observaciones (y archivos multimedia) para un taxón específico. Utilice un identificador único estable, preferentemente uno asignado por una fuente autoritativa. En Camtrap DP, este término corresponde a la IDdeTaxón del taxón correspondiente en package.taxonomic.
scientificName
El nombre científico de los individuos observados. En Camtrap DP, este término corresponde con observations.scientificName.
kingdom
El reino en el que el taxón con el que se clasifica el nombreCientífico. Permite que servicios como coincidencias de nombres de especies de GBIF se desambigüen entre homónimos. Probablemente Animalia para todos los registros, ya que las cámaras trampa casi nunca contienen clasificaciones de plantas, hongos u otros reinos.
4.4.3. Extensión de Descripción Multimedia de Audubon
Como se describe anteriormente, recomendamos usar una Audubon Media Description extension para expresar los datos de la cámara trampa como un Darwin Core Archive. Ver la Tabla 18 para recomendaciones de términos.
Tenga en cuenta que la Audubon Media Description extension puede contener duplicados, una diferencia importante con los archivos multimedia de Camtrap DP media donde cada archivo sólo aparece una vez. La IDdeOcurrencia repetida es el resultado de una única observación basada en eventos que se relaciona con múltiples archivos multimedia (p. ej., la observación 05230014 en la identificadores repetidos son el resultado de que un archivo multimedia sea la fuente para múltiples observaciones (p. ej., múltiples especies observadas en la misma imagen, tal como en el archivo multimedia e68deaed en la Tabla 16). Sin embargo, la extensión debe contener combinaciones de IDdeOcurrencia+identificador.
| Término | Estatus | Valor de ejemplo |
|---|---|---|
Requerido |
05230014 |
|
Compartir si está disponible |
6d65f3e4 |
|
Compartir si está disponible |
StillImage |
|
Compartir si está disponible |
marcado como favorito |
|
Muy recomendado |
||
Compartir si está disponible |
2020-06-12T06:04:32+02:00 |
|
Compartir si está disponible |
Reconyx-HF2X |
|
Compartir si está disponible |
detección de movimiento |
|
Requerido |
https://multimedia.agouti.eu/assets/6d65f3e4-4770-407b-b2bf-878983bf9872/file |
|
Compartir si está disponible |
imagen/jpeg |
|
Compartir si está disponible |
en línea |
occurrenceID
Una clave foránea para el IDdeOcurrencia en el Occurrence core, para indicar la relación entre la observación y los archivos multimedia en los que se basa. Este término puede contener duplicados, ya que esta es una relación de muchos-a-muchos (ver nota en la Sección 4.4.3). En Camtrap DP, este término se corresponde con observations.observationID, pero la relación entre observations y media puede establecerse de varias maneras: ya sea directamente a través de observations.mediaID o seleccionando archivos que tienen el mismo media.deploymentID como la observación y un media.timestamp que cae entre las observations.eventStart and observations.eventEnd de la observación.
identificador
Un identificador para el archivo multimedia. Utilice un identificador único estable. Este término puede contener duplicados, ya que esta es una relación de muchos-a-muchos (ver nota en la Sección 4.4.3). En Camtrap DP, este término se corresponde con media.mediaID.
type
La naturaleza del recurso. Utilice StillImage para imágenes, MovingImage para videos. No utilice dcterms:type, porque ese término espera un valor URL.
comentarios
Los comentarios o las notas sobre el archivo multimedia. En contraste con observacionesDelEvento y observacionesDeOcurrencia, las notas sobre los propios archivos multimedia rara vez se registran en sistemas de gestión de datos. El término podría utilizarse para indicar si un archivo multimedia fue marcado como favorito o digno de atención. En Camtrap DP, este término corresponde a media.mediaComments y se relaciona con media.favorite.
derechos
La licencia bajo la cual se comparte el archivo multimedia. Tenga en cuenta que esto aplica al archivo referenciado en accessURI, no los datos en la Audubon Media Description extension (estos caen bajo la licencia de conjunto de datos). Recomendamos utilizar la misma licencia para todos los archivos multimedia. Para permitir un uso amplio, recomendamos publicar archivos multimedia bajo una exención Creative Commons Cero o Creative Commons Atribution 4.0 Internacional license y proporcionarla como una URL: https://creativecommons.org/publicdomain/zero/1.0/legalcode o https://creativecommons.org/licenses/by/4.0/legalcode respectivamente. No utilizar https://ac. dwg.org/termlist/#dc_rights[dc:rights], ya que ese término espera un valor literal (la declaración de derechos de autor de texto completo). En Camtrap DP, este término corresponde a la ruta de la licencia que tiene el multimedia del ámbito en el package.licenses, aunque allí se especifica para el conjunto de datos en lugar de por registro.
fechaDeCreación
La fecha-hora en la que se creó el archivo multimedia. Esta información normalmente se extrae de los metadatos EXIF por el sistema de gestión de datos. Escriba las marcas de tiempo en formato ISO 8601 (AAAA-MM-DDTHH:MM:SS), e incluya la zona horaria (+02:00) o convierta e indique como UTC (Z). En Camtrap DP, este término corresponde con media.timestamp.
dispositivoDeCaptura
Los dispositivos utilizados para crear el archivo multimedia. Recomendamos proporcionar la marca y el modelo de la cámara (p. ej., Reconyx-HF2X). En Camtrap DP, este término corresponde con deployments.cameraModel.
técnicaDeCreaciónDeRecurso
Los métodos utilizados para crear o alterar el archivo multimedia. Recomendamos usar este término para proporcionar el método disparador que fue usado para capturar el archivo multimedia, como valores controlados: detección de actividad o intervalo de tiempo. En Camtrap DP, este término corresponde con media.captureMethod.
accesoURI
El URI (Identificador Uniforme de Recursos) que proporciona acceso al archivo multimedia. Aunque el término permite apuntar a las rutas de archivos relativa o almacenamiento sin conexión, recomendamos encarecidamente proporcionar la URL de http/https que sirve el archivo multimedia, si está disponible (ver la Sección 3.3.3). Utilice una URL http/https que sirva el archivo multimedia directamente (no una página HTML que lo incruste), para que se pueda mostrar en las páginas de ocurrencia en GBIF.org. Las imágenes de cámaras trampa son típicamente lo suficientemente pequeñas como para que no sea necesario servir una versión reducida del archivo. En Camtrap DP, este término corresponde a media.filePath.
expectativaDeServicio
Las expectativas de servicio que los usuarios pueden tener del accessURI. Recomendamos utilizar los valores controlados en línea para archivos multimedia accesibles públicamente a través de http/https y autenticar para archivos multimedia que se mantienen privados sobre http/https (ver la Sección 4.2.2.2). En Camtrap DP, estos valores relacionados con TRUE [Verdadero] y FALSE [Falso] respectivamente en media.filePublic.
formato
El formato de archivo del archivo multimedia. Recomendamos proporcionar el tipo de medio (tipo MIME) usando los valores controlados imagen/jpeg, video/mp4 o video/mpeg del Vocabulario Controlado Audiovisual Core Controlado para Dublin Core. No utilice dcterms:format, ya que ese término espera un valor URL. En Camtrap DP, este término corresponde con media.fileMediatype.
Reconocimientos
Damos las gracias a las siguientes personas por hacer sugerencias a esta guía y/o proporcionar soporte técnico: Stephen Formel, Donald Hobern, Kyle Copas, Laura Russell, Matt Blissett y miembros del equipo de desarrollo de Camtrap DP.
Glosario
- actividad
-
Movimiento delante de una cámara. El movimiento puede provocar un disparo cuando se cumplen ciertas condiciones (p. ej. dentro de la detection zone y fuera del quiet period). Las cámaras trampa son típicamente deployed para capturar la actividad de la vida silvestre, pero también pueden registrar movimientos de humanos, vehículos o vegetación.
- alineación
-
Colocación física de una cámara. Consiste en camera height, camera depth, camera tilt y camera heading.
- inteligencia artificial
-
Capacidad de las máquinas para percibir e inferir información, en lugar de los humanos/animales. En la investigación de cámaras trampa, la IA se aplica principalmente como machine learning para realizar tareas de computer vision. Vea también la Sección 3.5.3.
- cebo
-
Atrayente utilizado para animar a los animales a investigar una [location] o un punto específico dentro de la detection zone. Los cebos pueden ser auditivos, olfativos, visuales, o alguna combinación de estas. Es útil saber que se utilizó un cebo en un despliegue para realizar los análisis, ya que puede alterar el comportamiento natural de los animales. Se puede expresar como una descripción categórica (p. ej.,
acústica,visual,aroma) o un booleano. También se conoce como señuelo (Meek et al. 2014). deployments.baitUse en Camtrap DP. - en blanco
-
Media sin objetos de interés. Los "en blanco" a menudo son el resultado de triggers falsos como movimientos de la vegetación o luz fluctuante. Marcado como tal cuando se classifying para facilitar excluirlos de las consultas.
- cámara
-
Dispositivo diseñado para capturar automáticamente multimedia de actividad (salvaje), normalmente triggered por una combinación de calor y movimiento. De una cierta marca y modelo y singularmente identificable por ejemplo, por número de serie. También se la conoce como
cámara trampa,cámara de caza,cámara de sendero,cámara de exploraciónodispositivo. - profundidad de la cámara
-
Profundidad de la cámara (bajo el agua), un componente de la alineación de la cámara. Normalmente se expresa en metros bajo la superficie de agua local. deployments.cameraDepth en Camtrap DP.
- altura de la cámara
-
Altura de la cámara sobre el suelo, un componente de la alineación de la cámara. Se puede expresar en metros sobre el suelo o como una descripción categórica (
altura de la rodilla~ 0,5m,altura del pecho~ 1,5m,dosel~ 3+m en Ahumada et al. (2020)). deployments.cameraHeight en Camtrap DP. - inclinación de la cámara
-
Orientación hacia arriba o hacia abajo de la cámara, un componente de la alineación de la cámara. Se puede expresar en grados o como una descripción categórica (
paralelo= 0°,apunta hacia abajo= -90° en Ahumada et al. (2020)). deployments.cameraTilt en Camtrap DP. - dirección de cámara
-
Orientación cardinal horizontal de la cámara, un componente de la alineación de la cámara. Se puede expresar en grados desde el norte o como direcciones cardinales (N, NO, etc.). deployments.cameraHeading en Camtrap DP.
- Camtrap DP
-
Paquete de datos de cámaras trampa. Un data exchange format de cámaras trampa desarrollado comunitariamente, mantenido bajo los Estándares de Información de Biodiversidad (TDWG). Ver también Sección 4.3, Bubnicki et al. (2023) y el sitio web de Camtrap DP.
- clasificación
-
El acto de clasificar archivos multimedia de cámaras trampa resulta en observations. No debe confundirse con la clasificación taxonómica. Se puede realizar en diferentes etapas y con diferentes niveles de precisión p. ej., 1. El archivo no contiene objetos de interés (es decir, en blanco), 2. el objeto de interés es humano/vehículo/animal o desconocido, 3. el animal es miembro de ciertos taxones (p. ej., Sus scrofa, Rodentia), 4. el animal es de cierto sexo/etapa de vida, se conoce al individuo x o muestra determinado comportamiento. La clasificación suele ser un trabajo intensivo y, por lo tanto, a menudo asistido por computer vision, volunteers y/o sequences de clasificación, en lugar de media files individuales. También referido como
clasificación de imágenes,anotaciónoidentificación. Ver también la Sección 3.5.1. - ciencia ciudadana
-
Investigación científica realizada con la participación del público. También referido como
ciencia comunitaria,participación,colaboración abierta, omonitoreo voluntario. En la investigación de cámaras trampa, los científicos pueden participar en el despliegue y clasificación. Ver también la Sección 3.5.2. - computación en la nube
-
Realizar tareas informáticas en una infraestructura informática distribuida (“servicio en la nube”). Normalmente a un costo (“pago por uso") a cambio de un mejor rendimiento y menor mantenimiento.
- visión informática
-
Procesamiento, análisis y comprensión de archivos multimedia por máquinas para ayudar a la clasificación, desde seguimiento de objetos hasta identificación de especies. Una forma de inteligencia artificial, normalmente entrenada con machine learning.
- covariables
-
Variables ecológicas que pueden afectar el comportamiento y la detección de animales (p.ej. bait use, feature type, habitat, cubierta de dosel). El registro de las covariables es importante para un análisis más profundo de los datos. Ver también la Sección 3.4.5.
- formato de intercambio de datos
-
Formato utilizado para intercambiar datos entre sistemas (p. ej., Camtrap DP y Darwin Core Archive). Requiere transformación de datos del sistema fuente al formato y del formato al sistema de destino. Formatos de intercambio de datos bien diseñados facilitan un intercambio de datos FAIR, utilizan formatos abiertos y proporcionan definiciones claras. También se conoce como
estándar de datos(cuando se aprueba a través de un proceso de ratificación). - sistema de gestión de datos
-
Aplicación de escritorio o en línea para gestionar los datos de las cámaras trampa. Normalmente incluye la funcionalidad de subir multimedia, añadir información de despliegue, classify imágenes, exportar datos, invitar participants y gestionar un proyecto. Ver también la Sección 3.6.
- repositorio de datos
-
Sistema en línea para el archivo a largo plazo de datos (investigación) (p. ej., Zenodo, Dryad y el GBIF IPT). Diferente de un data management system que está diseñado para la gestión (y no necesariamente para el archivo a largo plazo) de datos.
- Darwin Core Archive
-
Un data exchange format estandarizado y ampliamente respaldado para datos de biodiversidad mantenido conforme a los Estándares de Información de Biodiversidad (TDWG). Ver también la Sección 4.4 y la Guía de texto de Darwin Core.
- despliegue
-
Colocación espacial y temporal de una cámara para muestrear imágenes de vida salvaje. Una cámara situada en una ubicación entre el 1 y el 15 de enero de 2020 es un despliegue diferente que la misma (o diferente) cámara situada en la misma ubicación entre el 15 y el 30 de enero de 2020. Los despliegues finalizan eliminando o reemplazando la cámara, cambiando su posición o cambiando su tarjeta de memoria. También se denomina
punto de muestreo(Wearn and Glover-Kapfer 2017),sesión de la estación trampa(Hendry and Mann 2018) ovisita(Newkirk 2016). deployments en Camtrap DP. Ver también la Sección 3.4. - grupo de despliegue
-
Agrupación lógica de deployments, basada en criterios espaciales, temporales o temáticos. Un despliegue puede pertenecer a múltiples grupos de despliegue.
array(O’Connor et al. 2017),despliegue de cámara trampa(Meek et al. 2014),clúster(Resources Information Standards Committee RISC 2019),despliegues emparejadoscite:[kolowski-2017,sitioyestratos(Sun et al. 2021) son grupos de despliegue espacial.campaña de muestreo(Lamelas-Lopez et al. 2020),evento de muestreo(Fegraus et al. 2011) ysesiónson grupos de despliegue temporal.subproyecto(eMammal n.d.),encuesta(Resources Information Standards Committee RISC 2019; Tobler 2015) yetiquetasson grupos de despliegue temáticos.áreas de estudio(Newkirk 2016) pueden considerarse un grupo de despliegue o proyecto por derecho propio. deployments.deploymentGroups en Camtrap DP. Ver también la Sección 3.4.4. - distancia de detección
-
La distancia más lejana en la detection zone en la que la cámara detecta actividad. ddeployments.detectionDistance en Camtrap DP.
- zona de detección
-
Área de una [location] en la que un sensor de cámara es capaz de detectar actividad.
- evento
-
Acción que ocurre en una [location] específica por una duración específica. En investigación de cámaras trampa los eventos normalmente se refieren a actividad animal grabada a través de una o más triggers y formando una secuencia, pero otras definiciones pueden ser utilizadas al analizar datos. Los eventos se pueden indicar con observations.eventID, observations.eventStart y observations.eventEnd en Camtrap DP. En un Darwin Core Archive, los deployments también pueden considerarse eventos.
- EXIF
-
Formato de archivo de imagen intercambiable. Un formato para almacenar metadatos sobre un archivo multimedia (p. ej., fecha y hora de creación, formato, resolución, velocidad de obturación, nivel de exposición, modelo de cámara), normalmente almacenado como parte del archivo multimedia. media.exifData en Camtrap DP.
- FAIR
-
Los (meta)datos FAIR son (meta)datos que cumplen con los principios de ser localizables, accesibles, interoperables y reutilizables. Los principios FAIR ponen especial énfasis en mejorar la capacidad de las máquinas para encontrar y utilizar automáticamente los datos además de apoyar su reutilización por individuos. Ver Wilkinson et al. (2016).
- tipo de característica
-
Descripción categórica de una característica física específica durante el despliegue, como madriguera, sitio de anidación o fuente de agua. deployments.featureType en Camtrap DP.
- ruta del archivo
-
Serie que describe la ubicación de un archivo en un sistema de almacenamiento (p. ej.,
data/deployments.csv). Cuando se proporciona a través de http/https, el nombre de dominio y la ruta del archivo constituyen la URL del archivo (por ejemplo,https://raw.githubusercontent.com/tdwg/camtrap-dp/main/example/deployments.csv). - RGPD
-
Regulación General de Protección de Datos. Una regulación de la Unión Europea sobre la privacidad de la información, diseñada para mejorar el control y los derechos de las personas sobre su información personal. Vea la Sección 4.2.2.1.
- tipo de hábitat
-
Descripción categórica del medio ambiente y vegetación de una ubicación. Existen sistemas de clasificación para expresar hábitat (European Environment Agency EEA 2021; IUCN 2019) o tipo de vegetación (Vegetation Subcommittee 2016). deployments.habitat en Camtrap DP.
- imagen
-
Archivo multimedia estático grabado por una cámara. No tiene duración significativa ni audio.
- intervalo de independencia
-
Duración mínima entre los disparos consecutivos para ser considerados pertenecientes a secuencias separadas. Esta duración (p. ej., 120 segundos) se puede definir en un sistema de gestión de datos para agrupar automáticamente archivos multimedia en secuencias. Esto es diferente del período de silencio, que es un ajuste de la cámara.
- individuo
-
Organismo perceptible, normalmente un animal.
- ubicación
-
Lugar físico donde se encuentra una cámara desplegada. Una ubicación puede ser descrita con un nombre y/o identificador y coordenadas en un sistema de referencia determinado (por ejemplo, latitud y longitud decimal en WGS84). También conocido como
ubicación de la cámara(Newkirk 2016),estación(Van Berkel 2014; Zaragozí et al. 2015),estación de proyectos(WildCAM 2018) oestación de trampas(Hendry and Mann 2018). Ubicación de despliegue con un deployments.locationName, deployments.locationID, deployments.latitude, deployments.longitude, y deployments.coordinateUncertainty en Camtrap DP. Ver también la Sección 3.4.2. - aprendizaje automático
-
Técnica computacional que hace uso de datos (entrenamiento) (p. ej., https://lila.science/) y algoritmos para imitar la manera en que los humanos aprenden, mejorando gradualmente la precisión.
- multimedia
-
Archivos multimedia (plural) capturados por una cámara. También se conoce como
fotos(Newkirk 2016). media en Camtrap DP. - archivo multimedia
-
Un archivo (audio)visual capturado por una cámara. Puede ser una imagen o un <video>>. Un archivo multimedia normalmente tiene un identificador, nombre de archivo, marca de tiempo cuando fue creado y metadatos asociados (p. ej., EXIF). Para acceder a un archivo multimedia, uno necesita conocer su ruta de archivo y tener los derechos de acceso necesarios. Multimedia con media.mediaID, media.timestamp, media.fileName, media.filePath en Camtrap DP. Ver también la Sección 3.3.
- tipo de medio
-
Expresión estandarizada de un formato de archivo (p. ej.,
imagen/jpegpara una imagen). Anteriormente conocido como tipo MIME. media.fileMediatype en Camtrap DP. - observación
-
Resultado de una clasificación, es decir, un registro de lo que se puede ver o escuchar en archivos multimedia. Tiene un tipo de observación para diferenciar entre animales y otras observaciones. observations en Camtrap DP. Ver también la Sección 3.5.
- tipo de observación
-
Descripción categórica del tipo de observación. Registrado como parte de la clasificación, permitiendo diferenciar entre espacios en blanco, observaciones de seres humanos o vehículos y observaciones animales. observations.observationType en Camtrap DP.
- organización
-
Entidad compuesta por una o más personas que comparten un propósito particular, como empresa, institución, asociación o sociedad. Las organizaciones se pueden asociar directamente con un proyecto (p. ej., como tenedor de derechos, publicista) o indirectamente a través de la afiliación de los participantes del proyecto. Una organización es un package.contributors en Camtrap DP.
- participante
-
Persona asociada con un proyecto, realizando uno o más roles. La información del participante normalmente incluye el nombre y la información de contacto y está sujeta a RGPD. Las organizaciones también pueden ser consideradas participantes. También nombrado
contribuidor, a vecesusuario. Un participante es un package.contributors en Camtrap DP. Ver también la Sección 3.2.1. - rol
-
Función llevada a cabo por un participante en un proyecto, por ejemplo, un líder de proyecto, gestor de datos o voluntario que clasificó los medios. Los participantes pueden tener múltiples roles y los roles se asocian normalmente con diferentes derechos en un sistema de gestión de datos (p. ej., el derecho de invitar a nuevos participantes). También se conoce como
tipo de participante. package.contributors.role en Camtrap DP. Ver también la Sección 3.2.1. - proyecto
-
Investigación científica realizada por un número de participantes, con un objetivo, metodología y alcance taxonómico, espacial y temporal definidos. El objetivo de los proyectos de cámaras trampa es normalmente estudiar y entender la vida salvaje. También nombrado
estudio. package.project en Camtrap DP, donde un conjunto de datos está asociado con un y sólo un proyecto. Ver también la Sección 3.2. - período de silencio
-
Duración predefinida después de un disparo cuando la actividad detectada por el sensor de la cámara es ignorada. deployments.cameraDelay en Camtrap DP.
- diseño de muestreo
-
Estrategia de despliegue de cámaras para facilitar un determinado propósito de investigación. Se puede expresar como una descripción categórica (p. ej.,
simple aleatorio,sistemático aleatorio,oportunista). package.project.samplingDesign en Camtrap DP. - sensibilidad
-
configuración de sensibilidad de activación utilizado en un sensor de cámara.
- sensor
-
Dispositivo que detecta cambios en el entorno, tales como movimiento, calor, luz, sonido u otros estímulos. Las cámaras trampa modernas suelen usar un sensor integrado de infrarrojos pasivos (PIR) diseñado para detectar actividad basado en una combinación de calor y movimiento.
- secuencia
-
Una serie de archivos multimedia tomados en rápida sucesión pero separados por un intervalo de tiempo menor que el intervalo de independencia establecido y que forma un registro animado de un evento. También se conoce como
serie(Bayne et al. 2018). - configuración
-
El acto de desplegar una cámara en el campo. Involucra alineación, define los ajustes de la cámara y asegura la cámara para asegurar capturas de datos óptimas observations.cameraSetupType en Camtrap DP.
- sitio
-
Área geográfica que contiene múltiples locations.
- reconocimiento de especies
-
Identificación automática y clasificación de diferentes especies animales basada en datos visuales o auditivos capturados por cámaras trampa.
- subproyecto
-
Tipo de deployment group utilizado para subdividir proyectos muy grandes en unidades más manejables.
- disparo
-
Condición de Sensor que hace que una cámara se active y capture multimedia. También se utiliza para indicar la serie de media files consecutivos resultantes de ese disparo. Uno o más disparos forman una secuencia. También se denomina
ráfaga. - UUID
-
Identificador único universal (UUID). Un tipo de identificador único globalmente que se puede generar sin una autoridad central de registro. Ejemplo:
6d65f3e4-4770-407b-b2bf-878983bf9872. - video
-
Archivo multimedia en movimiento grabado por una cámara. Tiene una duración específica y puede incluir audio.
Referencias
Ahumada J A, Fegraus E, Birch T, Flores N, Kays R, O’Brien T G, Palmer J, Schuttler S, Zhao J Y, Jetz W, Kinnaird M, Kulkarni S, Lyet A, Thau D, Duong M, Oliver R & Dancer A (2020) Wildlife Insights: A Platform to Maximize the Potential of Camera Trap and Other Passive Sensor Wildlife Data for the Planet. Environmental Conservation 47: 1–6. https://doi.org/10.1017/S0376892919000298
Alony I, Haski-Leventhal D, Lockstone-Binney L, Holmes K & Meijs L C P M (2020) Online volunteering at DigiVol: an innovative crowd-sourcing approach for heritage tourism artefacts preservation. Journal of Heritage Tourism 15: 14–26. https://doi.org/10.1080/1743873X.2018.1557665
Amatulli G, Domisch S, Tuanmu M-N, Parmentier B, Ranipeta A, Malczyk J & Jetz W (2018) A suite of global, cross-scale topographic variables for environmental and biodiversity modeling. Scientific Data 5: 180040. https://doi.org/10.1038/sdata.2018.40
Bayne E, MacPhail A, Copp C, Packer M & Klassen C (2018) Wildtrax. https://www.wildtrax.ca
Bennett J M, Calosi P, Clusella-Trullas S, Martínez B, Sunday J, Algar A C, Araújo M B, Hawkins B A, Keith S, Kühn I, Rahbek C, Rodríguez L, Singer A, Villalobos F, Ángel Olalla-Tárraga M & Morales-Castilla I (2018) GlobTherm, a global database on thermal tolerances for aquatic and terrestrial organisms. Scientific Data 5: 180022. https://doi.org/10.1038/sdata.2018.22
Bradley S (2017) MammalWeb – Participant guided development of a generalised citizen science web platform. http://edshare.soton.ac.uk/id/eprint/18337
Bubnicki J W, Churski M & Kuijper D P J (2016) TRAPPER: an open source web‐based application to manage camera trapping projects. Poisot T (Ed). Methods in Ecology and Evolution 7: 1209–1216. https://doi.org/10.1111/2041-210X.12571
Bubnicki J W, Norton B, Baskauf S J, Bruce T, Cagnacci F, Casaer J, Churski M, Cromsigt J P G M, Farra S D, Fiderer C, Forrester T D, Hendry H, Heurich M, Hofmeester T R, Jansen P A, Kays R, Kuijper D P J, Liefting Y, Linnell J D C, Luskin M S, Mann C, Milotic T, Newman P, Niedballa J, Oldoni D, Ossi F, Robertson T, Rovero F, Rowcliffe M, Seidenari L, Stachowicz I, Stowell D, Tobler M W, Wieczorek J, Zimmermann F & Desmet P (2023) Camtrap DP: an open standard for the FAIR exchange and archiving of camera trap data. Remote Sensing in Ecology and Conservation. https://doi.org/https://doi.org/10.1002/rse2.374
Buchhorn M, Lesiv M, Tsendbazar N-E, Herold M, Bertels L & Smets B (2020) Copernicus Global Land Cover Layers—Collection 2. Remote Sensing 12: 1044. https://doi.org/10.3390/rs12061044
Burton C, Neilson E, Moreira-Arce D, Ladle A, Steenweg R, Fisher J, Bayne E & Boutin S (2015) REVIEW: Wildlife camera trapping: a review and recommendations for linking surveys to ecological processes. Journal of Applied Ecology 52. https://doi.org/10.1111/1365-2664.12432
Bánki O, Roskov Y, Döring M & others (2023) Catalogue of Life Checklist. https://doi.org/10.48580/dfs6
Cadman M, González Talaván A, Athreya V, Chavan V, Ghosh-Harihar M, Hanssen F, Harihar A, Hirsch T, Lindgaard A, Mathur V, Mahlum F, Pandav B, Talukdar G & Vang R (2014) Publishing Camera Trap Data, a Best Practice Guide. Global Biodiversity Information Facility.
Caravaggi A, Burton A C, Clark D A, Fisher J T, Grass A, Green S, Hobaiter C, Hofmeester T R, Kalan A K, Rabaiotti D & Rivet D (2020) A review of factors to consider when using camera traps to study animal behavior to inform wildlife ecology and conservation. Conservation Science and Practice 2. https://doi.org/10.1111/csp2.239
Cartuyvels E, Adriaens T, Baert K, Baert W, Boiten G, Brosens D, Casaer J, De Boer A, Debrabandere M, Devisscher S, Donckers D, Dupont S, Franceus W, Fritz H, Fromme L, Gethöffer F, Herbots C, Huysentruyt F, Kehl L, Letheren L, Liebgott L, Liefting Y, Lodewijkx J, Maistrelli C, Matthies B, Meijvisch K, Moerkens D, Neukermans A, Neukermans B, Ronsijn J, Schamp K, Slootmaekers D, Van Der Beeck D & Desmet P (2022) MICA - Muskrat and coypu camera trap observations in Belgium, the Netherlands and Germany. https://doi.org/10.15468/5tb6ze
Casaer J, Milotic T, Liefting Y, Desmet P & Jansen P (2019) Agouti: A platform for processing and archiving of camera trap images. Biodiversity Information Science and Standards 3: e46690. https://doi.org/10.3897/biss.3.46690
Chapman A (2020) Current Best Practices for Generalizing Sensitive Species Occurrence Data. https://doi.org/10.15468/DOC-5JP4-5G10
Chapman A & Wieczorek J (2020) Georeferencing Best Practices. https://doi.org/10.15468/DOC-GG7H-S853
Clements J F, Schulenberg T S, Iliff M J, Fredericks T A, Gerbracht J A, Lepage D, Billerman S M, Sullivan B L & Wood C L (2022) The eBird/Clements checklist of Birds of the World. https://www.birds.cornell.edu/clementschecklist/download/
Cusack J J, Dickman A J, Rowcliffe J M, Carbone C, Macdonald D W & Coulson T (2015) Random versus Game Trail-Based Camera Trap Placement Strategy for Monitoring Terrestrial Mammal Communities. Guralnick R (Ed). PLOS ONE 10: e0126373. https://doi.org/10.1371/journal.pone.0126373
DataCite Metadata Working Group (2021) DataCite Metadata Schema Documentation for the Publication and Citation of Research Data and Other Research Outputs v4.4. https://doi.org/10.14454/3W3Z-SA82
Delisle Z J, Flaherty E A, Nobbe M R, Wzientek C M & Swihart R K (2021) Next-Generation Camera Trapping: Systematic Review of Historic Trends Suggests Keys to Expanded Research Applications in Ecology and Conservation. Frontiers in Ecology and Evolution 9: 617996. https://doi.org/10.3389/fevo.2021.617996
Dinerstein E, Olson D, Joshi A, Vynne C, Burgess N D, Wikramanayake E, Hahn N, Palminteri S, Hedao P, Noss R, Hansen M, Locke H, Ellis E C, Jones B, Barber C V, Hayes R, Kormos C, Martin V, Crist E, Sechrest W, Price L, Baillie J E M, Weeden D, Suckling K, Davis C, Sizer N, Moore R, Thau D, Birch T, Potapov P, Turubanova S, Tyukavina A, Souza N de, Pintea L, Brito J C, Llewellyn O A, Miller A G, Patzelt A, Ghazanfar S A, Timberlake J, Klöser H, Shennan-Farpón Y, Kindt R, Lillesø J-P B, Breugel P van, Graudal L, Voge M, Al-Shammari K F & Saleem M (2017) An Ecoregion-Based Approach to Protecting Half the Terrestrial Realm. BioScience 67: 534–545. https://doi.org/10.1093/biosci/bix014
eMammal ( Study Design Recommendation for a Park. https://emammal.si.edu/about/study-design/park
European Environment Agency (EEA) (2021) EUNIS habitat classification. https://eunis.eea.europa.eu/habitats.jsp
Fegraus E H, Lin K, Ahumada J A, Baru C, Chandra S & Youn C (2011) Data acquisition and management software for camera trap data: A case study from the TEAM Network. Ecological Informatics 6: 345–353. https://doi.org/https://doi.org/10.1016/j.ecoinf.2011.06.003
Forrester T, O’Brien T, Fegraus E, Jansen P, Palmer J, Kays R, Ahumada J, Stern B & McShea W (2016) An Open Standard for Camera Trap Data. Biodiversity Data Journal 4: e10197. https://doi.org/10.3897/BDJ.4.e10197
Fortson L, Masters K, Nichol R, Edmondson E M, Lintott C, Raddick J & Wallin J (2012) Galaxy zoo: Morphological classification and citizen science. Advances in machine learning and data mining for astronomy 2012: 213–236.
GBIF Secretariat (2015) EML Agent Role Vocabulary. http://rs.gbif.org/vocabulary/gbif/agentRole
GBIF Secretariat (2018) Quick guide to publishing data through GBIF.org. GBIF. https://www.gbif.org/publishing-data
GBIF Secretariat (2020) Data quality requirements: Occurrence datasets. GBIF. https://www.gbif.org/data-quality-requirements-occurrences
GBIF Secretariat (2022) Diversifying the GBIF Data Model. GBIF. https://www.gbif.org/new-data-model
Glover‐Kapfer P, Soto‐Navarro C A & Wearn O R (2019) Camera‐trapping version 3.0: current constraints and future priorities for development. Rowcliffe M, Sollmann R (Eds). Remote Sensing in Ecology and Conservation 5: 209–223. https://doi.org/10.1002/rse2.106
Green S E, Rees J P, Stephens P A, Hill R A & Giordano A J (2020) Innovations in Camera Trapping Technology and Approaches: The Integration of Citizen Science and Artificial Intelligence. Animals 10: 132. https://doi.org/10.3390/ani10010132
Groom Q, De Smedt S, Veríssimo Pereira N, Bogaerts A & Engledow H (2018) DoeDat, the Crowdsourcing Platform of Meise Botanic Garden. Biodiversity Information Science and Standards 2: e26803. https://doi.org/10.3897/biss.2.26803
Guillera-Arroita G, Ridout M S & Morgan B J T (2010) Design of occupancy studies with imperfect detection: Design of occupancy studies. Methods in Ecology and Evolution 1: 131–139. https://doi.org/10.1111/j.2041-210X.2010.00017.x
Hendry H & Mann C (2018) Camelot—intuitive software for camera-trap data management. Oryx 52: 15–15. https://doi.org/10.1017/S0030605317001818
Hobbs M T & Brehme C S (2017) An improved camera trap for amphibians, reptiles, small mammals, and large invertebrates. Crowther MS (Ed). PLOS ONE 12: e0185026. https://doi.org/10.1371/journal.pone.0185026
Howe E J, Buckland S T, Després-Einspenner M-L & Kühl H S (2017) Distance sampling with camera traps. Matthiopoulos J (Ed). Methods in Ecology and Evolution 8: 1558–1565. https://doi.org/10.1111/2041-210x.12790
Hsing P Y, Bradley S, Kent V T, Hill R A, Smith G C, Whittingham M J, Cokill J, Crawley D, MammalWeb volunteers & Stephens P A (2018) Economical crowdsourcing for camera trap image classification. Rowcliffe M, Wearn O (Eds). Remote Sensing in Ecology and Conservation 4: 361–374. https://doi.org/10.1002/rse2.84
IUCN (2019) Habitats Classification Scheme. https://www.iucnredlist.org/resources/habitat-classification-scheme
Jones K E, Bielby J, Cardillo M, Fritz S A, O’Dell J, Orme C D L, Safi K, Sechrest W, Boakes E H, Carbone C, Connolly C, Cutts M J, Foster J K, Grenyer R, Habib M, Plaster C A, Price S A, Rigby E A, Rist J, Teacher A, Bininda-Emonds O R P, Gittleman J L, Mace G M & Purvis A (2009) PanTHERIA: a species‐level database of life history, ecology, and geography of extant and recently extinct mammals: Ecological Archives E090‐184. Michener WK (Ed). Ecology 90: 2648–2648. https://doi.org/10.1890/08-1494.1
Jung M, Dahal P R, Butchart S H M, Donald P F, De Lamo X, Lesiv M, Kapos V, Rondinini C & Visconti P (2020) A global map of terrestrial habitat types. Scientific Data 7: 256. https://doi.org/10.1038/s41597-020-00599-8
Kays R, Arbogast B S, Baker‐Whatton M, Beirne C, Boone H M, Bowler M, Burneo S F, Cove M V, Ding P, Espinosa S, Gonçalves A L S, Hansen C P, Jansen P A, Kolowski J M, Knowles T W, Lima M G M, Millspaugh J, McShea W J, Pacifici K, Parsons A W, Pease B S, Rovero F, Santos F, Schuttler S G, Sheil D, Si X, Snider M & Spironello W R (2020) An empirical evaluation of camera trap study design: How many, how long and when? Fisher D (Ed). Methods in Ecology and Evolution 11: 700–713. https://doi.org/10.1111/2041-210X.13370
Kucera T E & Barrett R H (2011) A History of Camera Trapping. In: O’Connell AF, Nichols JD, Karanth KU (Eds), Camera Traps in Animal Ecology: Methods and Analyses. Springer Japan, Tokyo, 9–26. https://doi.org/10.1007/978-4-431-99495-4_2
Lamelas-Lopez L, Pardavila X, Amorim I & Borges P (2020) Wildlife inventory from camera-trapping surveys in the Azores (Pico and Terceira islands). Biodiversity Data Journal 8: e47865. https://doi.org/10.3897/BDJ.8.e47865
Lasky M (2016) North Carolina’s Candid Critters. https://emammal.si.edu/north-carolinas-candid-critters
Law B E, Arkebauer T, Campbell J L, Chen J, Sun O, Schwartz M, Ingen C van & Verma S (2008) Terrestrial carbon observations: Protocols for vegetation sampling and data submission.
Life MICA (2019) MICA - Management of Invasive Coypu and muskrAt in Europe. https://lifemica.eu/ (accessed 30 June 2023)
Mackenzie D I & Royle J A (2005) Designing occupancy studies: general advice and allocating survey effort: Designing occupancy studies. Journal of Applied Ecology 42: 1105–1114. https://doi.org/10.1111/j.1365-2664.2005.01098.x
Marcus Rowcliffe J, Carbone C, Jansen P A, Kays R & Kranstauber B (2011) Quantifying the sensitivity of camera traps: an adapted distance sampling approach: Quantifying camera trap sensitivity. Methods in Ecology and Evolution 2: 464–476. https://doi.org/10.1111/j.2041-210X.2011.00094.x
McIntyre T, Majelantle T L, Slip D J & Harcourt R G (2020) Quantifying imperfect camera-trap detection probabilities: implications for density modelling. Wildlife Research 47: 177. https://doi.org/10.1071/WR19040
Meek P, Fleming P, Ballard G, Claridge A, Banks P, Sanderson J & Swann D (2014) Camera Trapping Wildlife Management and Research. CSIRO publishing.
Meek P D, Ballard G, Falzon G, Williamson J, Milne H, Farrell R, Stover J, Mather-Zardain A T, Bishop J C, Cheung E K-W, Lawson C K, Munezero A M, Schneider D, Johnston B E, Kiani E, Shahinfar S, Sadgrove E J & Fleming P J S (2020) Camera Trapping Technology and Related Advances: into the New Millennium. Australian Zoologist 40: 392–403. https://doi.org/10.7882/AZ.2019.035
Newkirk E S (2016) CPW Photo Warehouse. http://cpw.state.co.us/learn/Pages/ResearchMammalsSoftware.aspx
Norouzzadeh M S, Morris D, Beery S, Joshi N, Jojic N & Clune J (2021) A deep active learning system for species identification and counting in camera trap images. Methods in Ecology and Evolution 12: 150–161. https://doi.org/10.1111/2041-210X.13504
Oldoni D, Desmet P & Huybrechts P (2023) camtraptor: Read, Explore and Visualize Camera Trap Data Packages. https://inbo.github.io/camtraptor/
Oliveira B F, São-Pedro V A, Santos-Barrera G, Penone C & Costa G C (2017) AmphiBIO, a global database for amphibian ecological traits. Scientific Data 4: 170123. https://doi.org/10.1038/sdata.2017.123
O’Brien T G (2010) Wildlife picture index and biodiversity monitoring: issues and future directions: Wildlife picture index and biodiversity monitoring. Animal Conservation 13: 350–352. https://doi.org/10.1111/j.1469-1795.2010.00384.x
O’Connor K M, Nathan L R, Liberati M R, Tingley M W, Vokoun J C & Rittenhouse T A G (2017) Camera trap arrays improve detection probability of wildlife: Investigating study design considerations using an empirical dataset. Bonter DN (Ed). PLOS ONE 12: e0175684. https://doi.org/10.1371/journal.pone.0175684
Resources Information Standards Committee (RISC) (2019) Wildlife Camera Metadata Protocol: Standards for Components of British Columbia’s Biodiversity No. 44. https://www2.gov.bc.ca/assets/download/DABCE3A5C7934410A8307285070C24EA
Riley S J, DeGloria S D & Elliot R (1999) A Terrain Ruggedness Index That Quantifies Topographic Heterogeneity. International Journal of Sciences 5: 23–27. https://download.osgeo.org/qgis/doc/reference-docs/Terrain_Ruggedness_Index.pdf
Robertson T, Döring M, Guralnick R, Bloom D, Wieczorek J, Braak K, Otegui J, Russell L & Desmet P (2014) The GBIF Integrated Publishing Toolkit: Facilitating the Efficient Publishing of Biodiversity Data on the Internet. Little DP (Ed). PLoS ONE 9: e102623. https://doi.org/10.1371/journal.pone.0102623
Rovero F, Tobler M & Sanderson J (2010) Camera trapping for inventorying terrestrial vertebrates. In: Manual on Field Recording Techniques and Protocols for All Taxa Biodiversity Inventories. AbcTaxa. https://biblio.naturalsciences.be/rbins-publications/abc-txa/abc-taxa-08/chapter-6.pdf
Rovero F & Zimmermann F eds. (2016) Camera trapping for wildlife research. Pelagic Publishing, Exeter, UK.
Rovero F, Zimmermann F, Berzi D & Meek P (2013) “Which camera trap type and how many do I need?” A review of camera features and study designs for a range of wildlife research applications. Hystrix 24. https://doi.org/10.4404/hystrix-24.2-8789
Rowcliffe J M, Field J, Turvey S T & Carbone C (2008) Estimating Animal Density Using Camera Traps without the Need for Individual Recognition. Journal of Applied Ecology 45: 1228–1236. https://www.jstor.org/stable/20144086 (accessed 29 June 2023)
Rowcliffe J M, Jansen P A, Kays R, Kranstauber B & Carbone C (2016) Wildlife speed cameras: measuring animal travel speed and day range using camera traps. Pettorelli N (Ed). Remote Sensing in Ecology and Conservation 2: 84–94. https://doi.org/10.1002/rse2.17
Shannon G, Lewis J S & Gerber B D (2014) Recommended survey designs for occupancy modelling using motion-activated cameras: insights from empirical wildlife data. PeerJ 2: e532. https://doi.org/10.7717/peerj.532
Simpson R, Page K R & De Roure D (2014) Zooniverse: observing the world’s largest citizen science platform. In: Proceedings of the 23rd International Conference on World Wide Web. ACM, Seoul Korea, 1049–1054. https://doi.org/10.1145/2567948.2579215
Sollmann R, Gardner B & Belant J L (2012) How Does Spatial Study Design Influence Density Estimates from Spatial Capture-Recapture Models? Waterman JM (Ed). PLoS ONE 7: e34575. https://doi.org/10.1371/journal.pone.0034575
Soria C D, Pacifici M, Di Marco M, Stephen S M & Rondinini C (2021) COMBINE: a coalesced mammal database of intrinsic and extrinsic traits. Ecology 102. https://doi.org/10.1002/ecy.3344
Sun C, Beirne C, Burgar J M, Howey T, Fisher J T & Burton A C (2021) Simultaneous monitoring of vegetation dynamics and wildlife activity with camera traps to assess habitat change. Rowcliffe M, Hofmeester T (Eds). Remote Sensing in Ecology and Conservation 7: 666–684. https://doi.org/10.1002/rse2.222
Sunarto S, Sollmann R, Mohamed A & Kelly M J (2013) Camera trapping for the study and conservation of tropical carnivores. The Raffles Bulletin of Zoology 28: 21–42. http://zoobank.org/urn:lsid:zoobank.org:pub:804A6DC9-A92A-41AE-A820-F3DA48614761
Swanson A, Kosmala M, Lintott C, Simpson R, Smith A & Packer C (2015) Snapshot Serengeti, high-frequency annotated camera trap images of 40 mammalian species in an African savanna. Scientific Data 2: 150026. https://doi.org/10.1038/sdata.2015.26
Tobias J A, Sheard C, Pigot A L, Devenish A J M, Yang J, Sayol F, Neate‐Clegg M H C, Alioravainen N, Weeks T L, Barber R A, Walkden P A, MacGregor H E A, Jones S E I, Vincent C, Phillips A G, Marples N M, Montaño‐Centellas F A, Leandro‐Silva V, Claramunt S, Darski B, Freeman B G, Bregman T P, Cooney C R, Hughes E C, Capp E J R, Varley Z K, Friedman N R, Korntheuer H, Corrales‐Vargas A, Trisos C H, Weeks B C, Hanz D M, Töpfer T, Bravo G A, Remeš V, Nowak L, Carneiro L S, Moncada R. A J, Matysioková B, Baldassarre D T, Martínez‐Salinas A, Wolfe J D, Chapman P M, Daly B G, Sorensen M C, Neu A, Ford M A, Mayhew R J, Fabio Silveira L, Kelly D J, Annorbah N N D, Pollock H S, Grabowska‐Zhang A M, McEntee J P, Carlos T. Gonzalez J, Meneses C G, Muñoz M C, Powell L L, Jamie G A, Matthews T J, Johnson O, Brito G R R, Zyskowski K, Crates R, Harvey M G, Jurado Zevallos M, Hosner P A, Bradfer‐Lawrence T, Maley J M, Stiles F G, Lima H S, Provost K L, Chibesa M, Mashao M, Howard J T, Mlamba E, Chua M A H, Li B, Gómez M I, García N C, Päckert M, Fuchs J, Ali J R, Derryberry E P, Carlson M L, Urriza R C, Brzeski K E, Prawiradilaga D M, Rayner M J, Miller E T, Bowie R C K, Lafontaine R M, Scofield R P, Lou Y, Somarathna L, Lepage D, Illif M, Neuschulz E L, Templin M, Dehling D M, Cooper J C, Pauwels O S G, Analuddin K, Fjeldså J, Seddon N, Sweet P R, DeClerck F A J, Naka L N, Brawn J D, Aleixo A, Böhning‐Gaese K, Rahbek C, Fritz S A, Thomas G H & Schleuning M (2022) AVONET: morphological, ecological and geographical data for all birds. Coulson T (Ed). Ecology Letters 25: 581–597. https://doi.org/10.1111/ele.13898
Tobler M W, Carrillo-Percastegui S E, Leite Pitman R, Mares R & Powell G (2008) An evaluation of camera traps for inventorying large- and medium-sized terrestrial rainforest mammals. Animal Conservation 11: 169–178. https://doi.org/10.1111/j.1469-1795.2008.00169.x
Tobler M (2015) Camera Base. https://www.atrium-biodiversity.org/tools/camerabase/
Tobler M W & Powell G V N (2013) Estimating jaguar densities with camera traps: Problems with current designs and recommendations for future studies. Biological Conservation 159: 109–118. https://doi.org/10.1016/j.biocon.2012.12.009
Van Berkel T (2014) Camera trapping for wildlife conservation: Expedition field techniques. Geography Outdoors.
Vegetation Subcommittee (2016) U.S. National Vegetation Classification. https://usnvc.org/
Waller J (2020) GBIF occurrence license processing. GBIF. https://data-blog.gbif.org/post/gbif-occurrence-license-processing/
Wearn O R & Glover-Kapfer P (2017) Camera-trapping for conservation: a guide to best-practices. Research Gate. https://doi.org/10.13140/RG.2.2.23409.17767
Wearn O R, Rowcliffe J M, Carbone C, Bernard H & Ewers R M (2013) Assessing the Status of Wild Felids in a Highly-Disturbed Commercial Forest Reserve in Borneo and the Implications for Camera Trap Survey Design. Cameron EZ (Ed). PLoS ONE 8: e77598. https://doi.org/10.1371/journal.pone.0077598
Weinstein B G (2018) A computer vision for animal ecology. Prugh L (Ed). Journal of Animal Ecology 87: 533–545. https://doi.org/10.1111/1365-2656.12780
WildCAM (2018) Wildlife Cameras for Adaptive Management. https://wildcams.ca/
Wilkinson M D, Dumontier M, Aalbersberg I J J, Appleton G, Axton M, Baak A, Blomberg N, Boiten J-W, Silva Santos L B da, Bourne P E, Bouwman J, Brookes A J, Clark T, Crosas M, Dillo I, Dumon O, Edmunds S, Evelo C T, Finkers R, Gonzalez-Beltran A, Gray A J G, Groth P, Goble C, Grethe J S, Heringa J, Hoen P A C ’t, Hooft R, Kuhn T, Kok R, Kok J, Lusher S J, Martone M E, Mons A, Packer A L, Persson B, Rocca-Serra P, Roos M, Schaik R van, Sansone S-A, Schultes E, Sengstag T, Slater T, Strawn G, Swertz M A, Thompson M, Lei J van der, Mulligen E van, Velterop J, Waagmeester A, Wittenburg P, Wolstencroft K, Zhao J & Mons B (2016) The FAIR Guiding Principles for scientific data management and stewardship. Scientific Data 3. https://doi.org/10.1038/sdata.2016.18
Wilman H, Belmaker J, Simpson J, De La Rosa C, Rivadeneira M M & Jetz W (2014) EltonTraits 1.0: Species-level foraging attributes of the world’s birds and mammals: Ecological Archives E095-178. Ecology 95: 2027–2027. https://doi.org/10.1890/13-1917.1
WoRMS Editorial Board (2023) World Register of Marine Species (WoRMS). https://www.marinespecies.org
Yang H, Li S, Chen J, Zhang X & Xu S (2017) The Standardization and Harmonization of Land Cover Classification Systems towards Harmonized Datasets: A Review. ISPRS International Journal of Geo-Information 6: 154. https://doi.org/10.3390/ijgi6050154
Young S, Rode-Margono J & Amin R (2018) Software to facilitate and streamline camera trap data management: A review. Ecology and Evolution 8: 9947–9957. https://doi.org/10.1002/ece3.4464
Zaragozí B, Belda A, Giménez P, Navarro J T & Bonet A (2015) Advances in camera trap data management tools: Towards collaborative development and integration with GIS. Ecological Informatics 30: 6–11. https://doi.org/10.1016/j.ecoinf.2015.08.001
Zhao M, Heinsch F A, Nemani R R & Running S W (2005) Improvements of the MODIS terrestrial gross and net primary production global data set. Remote Sensing of Environment 95: 164–176. https://doi.org/10.1016/j.rse.2004.12.011