social.tchncs.de is one of the many independent Mastodon servers you can use to participate in the fediverse.
A friendly server from Germany – which tends to attract techy people, but welcomes everybody. This is one of the oldest Mastodon instances.

Administered by:

Server stats:

3.9K
active users

#dublincore

1 post1 participant0 posts today

Some thoughts on my preliminary investigation of #Omeka ( omeka.org/classic/docs/Install ).

Built on pretty standard #LAMP stack.
No official docker image that I could find, so of course I built my own.
Which reminded me why I HATE php.

Anyway.

Some light testing (running locally).
Pretty simple to use (good).
No fancy ideas about creating "presentation" versions of items, and keeping the original upload "pristine". I am of two minds on this - for now, not a problem for me, but I can see how large archives might be problematic.

For example, a MOV file needs to be presented as a MP4 for widest audience. And you probably don't want to lose the original.
With Omeka that means some manual work on the admin side.

It support plugins and themes - I'm of two minds here also. Good way
to extend functionality and allow for customization, but my experience with such things are not good ito longterm stabililty and maintenance.

I'm also not super keen on #MySQL as the db, due to recent corruptions issues with my #Nextcloud instance (moved that to #PostgreSQL ).
BUT, this will be read heavy, so maybe not an issue - hard-ish to corrupt a db by reading from it.

The useage of #DublinCore at least means (I think) in theory, if I really want, I should be able to migrate to another Dublin Core compatible system if needed. So...good.

My verdict - I'm going to play with it some more.
Install some plugins etc, see what happens.
I'm also building up a test set of assets, in case I want to eval something else.

omeka.orgInstallation - Omeka Classic User Manual
Continued thread

In einem gemeinsamen Workshop der Konsortien @NFDI4Memory , @nfdi4objects und @Textplus auf der #DHd2025 wurde anhand konkreter Use Cases eine Einführung in #DublinCore, #TEI und #LIDO vermittelt, die Bedeutung von #Normdaten und #Terminologien betont und die #Minimaldatensatz-Empfehlung für #Museen und #Sammungen vorgestellt. Die Folien finden sich bei Zenodo: zenodo.org/records/15052040

#FAIR #CARE #NFDI #Text+ #NFDI4Memory #NFDI4Objects #Datenharmonisierung #Datenqualitaet 2/2

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMaterialien zum Workshop "Qualitativ hochwertige Metadaten in digitalen Editionen“, der im Rahmen der „DHd 2025: Under Construction“ in Bielefeld von Mitarbeiter:innen der NFDI-Konsortien Text+, NFDI4Memory, NFDI4Objects, der Verbundzentrale des GBV und dem Institut für Museumsforschung gehalten wurde. Ziel des Workshops war die praxisnahe Vermittlung von Wissen zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen. Ausgehend von konkreten Fallbeispielen in Form verschiedener Überlieferungssituationen von Briefen (neu zu erschließen, Abschrift, indirekter Hinweis) wurden die Problemfelder aufgerissen, die hinsichtlich der Beschreibung der verschiedenen Arten von Metadaten auftreten können. Drei Übungsblöcken waren jeweils kurze thematischen Einführungen zu den Basisthemen Metadaten, Normdaten und kontrollierten Vokabularen, Dublin Core, LIDO sowie Datenqualität und Datenkuratierung vorangestellt. In den Praxisübungen arbeiteten die Teilnehmer:innen in Gruppen oder eigenständig mit den Metadaten-Standards Dublin Core, LIDO und TEI-XML. Die Übungen zielten darauf ab, die Erstellung von Metadatensets, auch anhand von Metadateneditoren, zu erproben und aus der eigenen Erfahrung Methoden zur Bewertung der Qualität und zur Bereinigung eigener bzw. bereits vorhandener Metadatensets zu entwickeln.
Continued thread

@Textplus @NFDI4Memory

Da dieser Workshop aufgrund des wichtigen Themas sehr schnell ausgebucht war, finden Sie hier das Abstract: zenodo.org/records/14943264.

#DHd2025 #Metadaten #Normdaten #Terminologien #Vokabulare #digitaleEditionen #Datenqualität #Minimaldatensatz #TEI #LIDO #DublinCore #Personennamen #Ortsnamen #Standardisierung

Wir freuen uns auf den Austausch, sowohl auf der DHd als auch danach.

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMetadaten sind der zentrale Schlüssel, um Datenpublikationen verfügbar, indexierbar und verknüpfbar zu machen. Sie geben Aufschluss über die Provenienz, Erfassung und Bearbeitung von Daten und ermöglichen den Communities, die Daten nachnutzen möchten, eine Kontextualisierung ihrer Entstehungsbedingungen. Reich an potentiellen Metadatenquellen stellen Editionen – digitale wie analoge – durch Register, Apparate, Personen- und Ortsnamen sowie die Dokumentation von Textbearbeitungsstufen die Erfassung mittels standardisierter Formate vor besondere Herausforderungen. Der Workshop fokussiert die Erzeugung standardbasierter Metadatensets von und für die Erarbeitung von Editionen unter dem Gesichtspunkt von Metadatenqualität. Im Workshop werden daher praxisnah Kenntnisse zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen vermittelt. Zu den Kernelementen zählen Praxisübungen in Kleingruppen anhand konkreter Use Cases (Dublin Core, LIDO) und für die Herstellung digitaler Editionen relevanter Metadaten-Standards. Den Hands-On-Phasen vorangestellt sind konzise Einführungen zu den Feldern und Standards von Metadatenformaten, kontrollierten Vokabularen, Aspekten der Datenqualität und Phasen der Datenkuratierung.

Today I will be wearing my metadata hat to present the Dublin Core Scholarly Resources Application Profile (DC-SRAP) at the Minute Madness session & Poster reception. How to extend and standardize DC metadata to fit the needs of academic repositories? How to describe articles, preprints, theses etc. with rich metadata?

Documentation: github.com/dcmi/dc-srap

A0 poster: github.com/dcmi/dc-srap/blob/m

Continued thread

I am of course also thinking about the #Web (#Q466) in general. We are in a time of crisis with the decline of the quality of #Google as a search engine.

In the early years of the web there was a belief in #MetaData but it was cumbersome. Today, adding #DublinCore data to a webpage should be as easy as adding a keyword to a #blog post. But it isn't done.

We got away with haphazard metadata and #tagging while Google still worked but those days are over.

We need to think systematically.

@Valenoern This is the essential idea behind "docfs", which would be a document-oriented filesystem. Its networked sibling being "webfs".

"Document" here is in the sense of #PaulOtlet, of any durable record. That might be a text, image, sound, video, multimedia content, data, software, or an amalgamation or melange.

One of my key ideas is that the metadata for these documents would be part of the filesystem, extending the notion of what constitutes file-centric data. I'd like to see some form of bibliographic data presented, where available for public and published media (book, articles, audio recordings, films).

Search is another element, and one idea for the filesystem would be as a virtual filesystem in which attributes could be supplied until a single item matching those criteria was found. "Identity is search".

For projects, some concept of structured workflows, with groups, tasks, milestones, and contributing data. For a sufficiently structured organisation, security and access controls.

I'd like the whole concept to be as commercialisation-hostile as possible, with both copyrights and payments entirely out of scope.

#docfs#webfs#kfc

I'm looking for tooling (#Bash #Python #OpenRefine etc.) that processes Excel-formatted exports from Web of Science or similar into #DSpace-compatible CSVs.

Processing steps include: Renaming & subsetting columns, renaming to match #DublinCore fields, harmonising author names, retrieving missing info via #DOI-APIs etc.

Would be a neat programming lessons, but I'm looking for tried-and-tested code for production.

Please boost! 1k thanks for any hints 🙂 #Code4Lib #DataScience #LibraryCarpentry