this post was submitted on 26 Oct 2023
19 points (85.2% liked)

DACH - jetzt auf feddit.org

8713 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
top 16 comments
sorted by: hot top controversial new old
[–] [email protected] 16 points 1 year ago (2 children)

Na, das kann ja nur gut gehen. Freue mich auf Perlen wie: "Hier ist das Zweite Deutsche Fernsehen UND ER LECKE MICH IM ARSCHE!" /s

[–] [email protected] 20 points 1 year ago

UND ER LECKE MICH IM ARSCHE

Also mehr klassische deutsche Literatur kann doch nur gut sein.

[–] [email protected] 5 points 1 year ago (2 children)

Da wird es bestimmt einige witzige Vergebärdensprecher geben 😄 Ich finde das allerdings nicht so dramatisch, wenn es meistens gut funktioniert und wir somit alle wichtigen (oder mehr) Sendungen übersetzen.

[–] [email protected] 12 points 1 year ago* (last edited 1 year ago)

Die automatischen Übersetzungen auf YouTube empfinde ich manchmal als extrem ablenkend. Angewiesen möchte ich darauf nicht sein.

[–] [email protected] 5 points 1 year ago (2 children)

Ich sehe es tatsächlich auch erstmal positiv, aber bei dem aktuellen Stand der KI, wird es leider unvermeidlich zu solchen Patzern kommen. Wobei natürlich auch der beste menschliche Dolmetscher sich mal verspricht.

[–] [email protected] 4 points 1 year ago
[–] [email protected] 2 points 1 year ago (2 children)

Welche Aufgaben muss die KI denn überhaupt lösen:

  • Speech to Text
  • Text to Sign language oder beides auf einmal. Allerdings bezweifle ich, dass es dafür gute Modelle gibt.

Klar, für ersteres muss eine gute KI genommen werden. Open Source kenne ich da nichts gutes. Und nein, KALI ist nicht gut, es ist scheiße im Vergleich zum Stand der Technik. OpenAI Whisper finde ich extrem gut, allerdings datenschutztechnisch schlecht. Wenn die da etwas gutes finden, was auch mit Deutsch funktioniert, dann... Aber ja, daran wird es haken.

Zweiteres, Text to Handsprache, da sehe ich überhaupt kein Problem. Das können, ich kenne mich mit Handsprache nicht sonderlich gut aus, Bilder seien, die aneinander gereiht sind und zwischen denen interpoliert wird.

[–] [email protected] 6 points 1 year ago

Gebärdensprache ist mehr als die Aneinanderreihung von Gesten, die 1:1 dem Satz entsprechen. Denn einerseits hat Gebärdensprache einen anderen Satzbau und Grammatik, andererseits können Gebärden auch eine "Betonung" haben.

Das wär alles sicher machbar, bräuchte aber sicher viel Training für die KI.

[–] [email protected] 4 points 1 year ago

Das können, ich kenne mich mit Handsprache nicht sonderlich gut aus, Bilder seien, die aneinander gereiht sind und zwischen denen interpoliert wird.

Ich glaube das ist um einiges komplizierter. So weit ich weiß: Zum Beispiel werden Richtungen einfach durch eine Handbewegung in die entsprechende Richtung gezeigt. Was start one Ziel dieser Bewegung ist hängt dann vom Kontext ab. Klar, LLMs verstehen inzwischen worauf sich ein "es" im Satz bezieht, aber nichtsdestotrotz ist das ein richtig richtig schweres Problem für Computer.

Der Wikipedia Artikel ist interessant: https://de.wikipedia.org/wiki/Geb%C3%A4rdensprache

Die Gebärden werden phonologisch in vier Parameter zerlegt, die phonemisch weiter analysiert werden: in Handkonfiguration, Handorientierung, Bewegungsausführung und Ort der Bewegung. Viele Gebärden sind stark flektiert. Informationen können pronominal (durch verschiedene sichtbare Formen) in einer einzigen Gebärde eingebaut werden, z. B. in DGS die Verbgebärde, glossiert mit ICH-BUCH-GEBEN-DIR-SCHNELL[5] schließt die Bewegungsrichtung von „ich“ nach „du“, und zwar schnell, ein und die Handkonfiguration zeigt das Halten eines imaginären Buches an. Wenn abgewandelt in der Bewegung von „du“ nach „ich“, ergibt DU-BUCH-GEBEN-MIR-SCHNELL. Die Gebärde kann mit anderen Handformen modifiziert werden, um anzuzeigen, was gegeben wird, z. B. ein dickes oder dünnes Buch, eine Flasche, ein Fuß- oder Golfball, ein Stück Papier, einen Stapel Bücher usw. Dazu kommt noch die unterschiedliche Orientierung der Hand bzw. Hände, ob das Objekt horizontal oder vertikal übergeben wird. Insgesamt sieben Bedeutungsteile können in dieser einzigen Gebärde erkannt werden: Subjekt, Empfänger (Einzahl oder Mehrzahl), dessen Lokalität (links, rechts, nahe oder fern), Objekt, Größe bzw. Menge des Objekts, verbiales Adverb, einmal oder wiederholt.

[–] [email protected] 12 points 1 year ago

Wie wäre es denn mit einem Kompromiss, Automatik bei Live-Sendungen, Automatik mit Editor der das noch mal Probe liest bei allem was nicht live ist? Sollte immer noch reichlich Zeit und Kosten sparen.

[–] [email protected] 2 points 1 year ago* (last edited 1 year ago)

Oh, das jetzt aber gar nicht einmal so gut.

Wo trainiere ich dann bitte meine speech to text modelle? Also nicht ich sondern openai bspw..

Wenn man Stille in einer Aufnahme hat und whisper rüber jagt hat man oft copyright Angaben von öffis, die Existenz dieser Artefakte weißt darauf hin das ein größerer teil der Daten aus diesen Quellen stammt.

https://github.com/openai/whisper/discussions/928

Ironisch wie der Einsatz von "ki" trainingsdaten vergiftet. Das fühlt sich ein wenig an wie der stahl aus schiffen vor den Atombombentest: pre-AI-Data .

Oder kurzum, besser als jetzt werden die Trainingsdaten nie gewesen sein

[–] [email protected] 1 points 1 year ago (1 children)

"KI wird keine Jobs ersetzen, nur verbessern"

[–] [email protected] 1 points 1 year ago

Weil man bisher ja auch so gut live Untertitel erstellen konnte...

[–] [email protected] -2 points 1 year ago (1 children)

Gute Idee. Kenne ein Toll, wo das schon erstaunlich gut funktioniert. Kann mir vorstellen, dass es einigen Fremdsprachlern beim Deutschlernen helfen kann.

[–] [email protected] 2 points 1 year ago (1 children)

KI-Untertitel sind nach wie vor blanke Scheiße. An den entscheidenden Stellen, wo sie mal Value bringen könnten, versagen sie in aller Regel. Aber gut, mein Bild ist natürlich sehr von diesen unsäglichen Untertiteln geprägt, die einem in den meisten Kurzvideos aufgezwungen werden und mehr irritieren als nützen.

[–] [email protected] 1 points 1 year ago

Kommt wohl stark auf den Anbieter bzw Sprachmodell an. How.FM finde ich sehr überzeugend. Sagen auch Muttersprachler.