LRZ E Zeitschrift Logo

LRZHeaderBogenRot
 

Zitiervorschlag: Schuh/Friehoff, LR 2019, S. 43, [●], www.lrz.legal/2019S43

 
Mathias Schuh | Lukas Friehoff
M. Schuh: Jurastudent, WWU Münster, Wissenschaftlicher Mitarbeiter, Schnittker Möllmann Partners , Co-Founder und Vorstandsmitglied recode.law e.V. | L. Friehoff: Promotionsstudent, WWU Münster, Wissenschaftlicher Mitarbeiter, Noerr LLP, Vorstandsmitglied recode.law e.V.

Spätestens seitdem Googles AlphaGo Algorithmus im März 2016 den weltbesten Spieler im wohl komplexesten Brettspiel “Go” deutlich schlug, sind die Begriffe Deep Learning und Neuronale Netze immer visibler geworden. Neben dem aufsehenerregenden Einsatz von Deep Learning in Brettspiel-Wettkämpfen entwickeln sich die Einsatzbereiche in fast allen Wirtschaftszweigen in hohem Tempo fort. Vor allem der juristische Bereich hält mit dieser Entwicklung jedoch nicht mit. Im folgenden Artikel werden wir nach einer technischen Einführung in Deep Learning beleuchten, welche Einsatzmöglichkeiten derzeit und in Zukunft in und außerhalb der Rechtswissenschaft bestehen. Im Anschluss werden wir mögliche Hürden aufzeigen, die einer schnelleren Entwicklung von juristische Deep Learning Anwendungen unter Umständen entgegenstehen.


 

 

 

Technische Einführung ins Deep Learning/ Neuronale Netze

Deep Learning (DL) ist ein Teilgebiet des Maschinellen Lernens und das derzeit wohl prominenteste Lernverfahren in diesem Forschungsgebiet.[1] Das Forschungsgebiet des Maschinellen Lernens befasst sich allgemein vereinfacht ausgedrückt damit, einem Algorithmus beizubringen, aus Erfahrungen zu lernen.[2] Der große und entscheidende Unterschied zu den anderen bekannten Lernverfahren des Maschinellen Lernens[3] - überwachtes Lernen, unüberwachtes Lernen und bestärkendes Lernen - besteht in der verwendeten Netzwerkarchitektur des Algorithmus. Bei der DL-Lernmethode wird nämlich versucht, durch die Bildung eines künstlichen neuronalen Netzwerkes das (menschliche) Gehirn zu simulieren.[4] Künstlichen Knoten und Kanten bilden im künstlich neuronalen Netzwerk die natürlichen Neuronen und Synapsen im Gehirn nach.[5] Die Kanten verbinden die Knoten miteinander, so wie auch die Synapsen die Neuronen verknüpfen und stellen so den Informationsaustausch sicher.[6] In einem künstlichen neuronalen Netzwerk werden die folgenden drei Knoten miteinander verbunden: Input-, Output- und Hidden-Knoten. Input-Knoten enthalten die Eingangsdaten, die analysiert werden sollen - beispielsweise Bildpixel bei einem Bilderkennungsalgorithmus.[7] Output-Knoten beinhalten das Analyseergebnis, mithin die Ausgangsdaten - bspw. die Klassifikation einer erkannten “Katze” oder eines erkannten “Hundes” bei einem Bilderkennungsalgorithmus für Tierrassen.[8] Die Hidden-Knoten befinden sich als innere Schichten in mehreren Ebenen des neuronalen Netzwerkes zwischen den Input- und den Output-Knoten[9] und sind für die Analyse der eingegebenen Daten zuständig. Das besondere an DL-Netzwerken besteht nun darin, dass diese anders als die bei den anderen Lernverfahren verwendeten Netzwerkstrukturen nicht nur zwei Schichten an Hidden-Knoten aufweisen, sondern hunderte.[10] Die Tiefe - das heißt die Zahl und die Breite der Schichten und die Verbindung zwischen ihnen - von künstlichen neuronalen Netzwerke ist theoretisch unerschöpflich.[11] Der genaue Aufbau und die Tiefe eines Netzwerks hängen von dem verfolgten Ziel der Lernaufgabe ab, was dazu führt, dass immer wieder Netze mit neuen Strukturen entwickelt werden.[12]

DL-Modelle sind zum einen so erfolgreich, da sie aufgrund der höheren Anzahl an Netzwerkschichten deutlich größere Datenmengen verarbeiten können als die anderen Lernverfahren.[13] Zum anderen besteht ihr Vorteil darin, dass ein Deep-Learning-Algorithmus im Ganzen trainert wird, sprich von der Eingabe der Rohdaten bis hin zur Ausgabe des Analyseergebnisses und dadurch viele bis dahin erforderliche Datenvorbearbeitungsschritte wegfallen.[14] Das bedeutet beispielsweise, dass einem neuronalen Netzwerk nicht mehr manuell beigebracht werden muss, auf welche Merkmale die Inputdaten überprüft werden sollen, sondern dass der Algorithmus automatisch Strukturen in den zur Verfügung gestellten Beispielen findet, sich anhand dieser immer abstraktere Repräsentationen beibringt und damit die Arbeit der Merkmalsauswahl automatisch miterledigt.[15] Zur Verdeutlichung folgendes Beispiel eines Lernprozesses eines DL Algorithmus in der Bilderkennung: Nehmen wir an, wir haben einen Satz von Bildern, bei dem jedes Bild ein Objekt aus vier verschiedenen Objektkategorien enthält.[16] Unser Ziel ist es, dass das DL Netzwerk automatisch erkennt, welches Objekt sich in jedem Bild befindet.[17] Nun beschriften wir zuerst die Bilder, um Trainingsdaten für das Netzwerk zu erhalten.[18] Anschließend speisen wir die Trainingsdaten in den Algorithmus ein. Anhand der Trainingsdaten kann das Netzwerk dann beginnen, die spezifischen Eigenschaften des Objekts zu verstehen und sie mit den entsprechenden Objektkategorien zu verknüpfen.[19] Dies geschieht dadurch, dass die bei den Input-Knoten aufgenommenen Daten durch die einzelnen Schichten an Hidden-Knoten geleitet werden. Jede Schicht wertet die Daten aus, die es von der vorangegangenen Schicht erhalten hat. Indem dadurch jede neue Schicht auf dem Ergebnis der vorangegangenen Schicht aufbaut, erhöhen sich von Schicht zu Schicht die Komplexität und die Details der Auswertung.[20] Das Netzwerk lernt also von Schicht zu Schicht immer weiter. Man sieht folglich ganz deutlich, dass bis auf die Dateneingabe, kein weiterer menschlicher Input nötig ist, da der Algorithmus direkt aus den Daten lernt, ohne dass wir einen Einfluss auf das Lernverfahren haben.[21]

 

 


Konkrete Anwendungsfälle

Nachdem nun ein technisches Grundverständnis vorliegt, sollten wir uns zumindest auf eine Einschätzung zur DL-Technologie einigen: DL und Neuronale Netze schaffen keinesfalls von Grund auf neue Technologien, sie verstärken lediglich bereits bestehende Anwendungen und machen allenfalls manche Technologien überhaupt lohnenswert, sodass diese am Markt auftauchen. Bevor wir auf mögliche Anwendungsfelder in der juristischen Praxis eingehen, erläutern wir im Folgenden konkrete Anwendungsfälle, bei denen DL andere Technologien schon derart unterstützt, dass diese in der Praxis Unternehmen und Privatpersonen unterstützen.


Geräusch- und Vibrationserkennung

DL eignet sich, um Muster zu erkennen und zu interpretieren. Im industriellen Bereich wird dies an der Schnittstelle zwischen dem “Internet of Things”, also unter Einsatz von Sensoren, die die Eigenschaften ihrer Umwelt wahrnehmen und in Daten übersetzen[22] und der maschinellen Mustererkennung genutzt. Unter dem Stichwort “Predictive Maintenance” werden beispielsweise Vibrationen und Geräusche einer Maschine erfasst. Diese Datenmengen werden dann anhand neuronaler Netze ausgelesen und individuelle Wartungszyklen erstellt.[23] So können Ausfälle der Maschinen vorgebeugt und der Betrieb am Laufen gehalten werden. Die Bewältigung dieser Datenmengen, die sich aus der reinen Umgebungswahrnehmung der IIoT-Sensoren rekrutiert, könnte ohne maschinelle Mustererkennung nicht in dieser Art stattfinden.


Bilderkennung

Große Fortschritte werden auch im Bereich der Bilderkennung gefeiert. Dabei bilden die verarbeiteten Informationen nicht etwa Zahlen oder Textinformationen, sondern Informationen über einzelne Pixel eines Bildes/Videos ab. Unter anderem werden im medizinischen Bereich so Scans verwendet, die dann auf gewisse Merkmale untersucht werden, um daraus medizinische Schlüsse zu ziehen. Beispielhaft kann hier erfreulicherweise ein Projekt aus der Münsteraner Studierendenschaft aufgeführt werden: Ein vierköpfiges Team baute ein Tool, das das Alter eines Menschens anhand seiner Fingerknochen bis auf 20 Monate genau ermitteln konnte. Den Datensatz mit den Röntgenbildern und dem entsprechenden Alter der Patienten lieferte dabei eine frei verfügbare Datenbank. Bemerkenswert ist, dass der Algorithmus bei seiner Analyse genau die selben Bildpunkte anvisierte und in seine Interpretation einfließen ließ, die auch menschliche Ärzte bei der Bestimmung des Alters untersuchen.[24]


Für die juristische Praxis interessante Anwendungen

Die oben genannten Beispiele sind durchaus interessante Anwendungsfelder von DL-gestützten Technologien, doch für die juristische Praxis scheinen sie auf den ersten Blick recht fernliegend. Handwerkszeug eines jeden Juristen ist, war und wird (zumindest in näherer Zukunft) immer die Sprache sein. Urteile, Schriftsätze und letztlich auch Gesetze liegen in Schriftform vor und auch im Gerichtssaal spielen Bilder und Zahlen doch allenfalls eine sehr untergeordnete Rolle. Wie im realen Leben wird auch auf technologischer Ebene zwischen Wort und Schrift unterschieden.


Spracherkennung

Die reine Spracherkennung, also das Übersetzen gesprochener Sprache in geschriebene Sprache, ist kein neues Phänomen. Sie ist die Vorform der Texterkennung und stößt ohne diese schnell an ihre Grenzen, da nur aneinander gereihte Wörter erfasst werden, denen aber noch keine Bedeutung verliehen wird. Die Spracherkennung als “Front-End”, also im Prinzip die Benutzeroberfläche und das Eingabekästchen, begegnen uns im Alltag mit steigender Häufigkeit. Sei es auf dem Smartphone in Form von Siri oder Cortana oder als IoT-Device mit dem hübschen Namen Alexa. Der Boom der Sprachassistenten hängt unmittelbar mit der Verbesserung der Spracherkennung in den letzten 20 Jahren zusammen. Gemessen wird die Performance eines solchen ASR (Automatic Speech Recognizer) an der sogenannten Word-Error-Rate (WER). Diese summiert die fehlerhaften Stellen in einem diktierten Satz (Verwechslung, Auslassungen und falsch eingefügte Begriffe), die dann durch die Anzahl der diktierten Wörter geteilt werden.[25] Während die WER vor 20 Jahren noch bei 43% lag, konnte sie mittlerweile auf 5,1% gesenkt werden (= 51 Wörter von 1000).[26] Die Spracherkennung beschränkt sich dabei aber allein auf eine Transkription gesprochener Sprache in Schriftsprache (bzw. maschinell verwertbarer Sprache). Über ein fortgeschrittenes Diktiergerät geht die Technologie folglich nicht hinaus.


Texterkennung/Natural Language Processing (NLP)

Erst die Texterkennung macht den Unterschied. In diesem Arbeitsschritt wird versucht, die jeweilige Eingabe auch zu verstehen und daraus Arbeitsanweisungen zu isolieren. Die zentrale Technologie hinter der Texterkennung ist dabei das sogenannte “Natural Language Processing (NLP)”, durch das die Software menschliche Aussagen in logische Muster übersetzt. Es geht nicht mehr um eine reine Erkennung der Abfolge von Zeichen, sondern die Hierarchie hinter dem Ausdruck steht im Vordergrund. Das heißt, dass mehrere Symbole ein Wort, mehrere Wörter eine Phrase, mehrere Phrasen einen Satz und mehrere Sätze eine Idee vermitteln.[27] NLP hat große Schnittmengen mit “Nicht-IT-Gebieten” wie Kognitionswissenschaft, Psychologie, Philosophie und mathematischer Logik. Innerhalb der IT grenzt NLP dabei vor allem an Sprachtheorie und Maschinelles Lernen an.[28] Das Natural Language Processing selbst wird dabei nochmal in Teilgebiete unterteilt, die eigenständige Methoden der Texterkennung darstellen.


Methoden des NLP

Das “Language Modeling” befasst sich vereinfacht gesagt mit dem “Erraten” des auf ein Signalwort folgenden Wortes anhand statistischer Zusammenhänge.[29] Es wird zunächst ein Datensatz mit möglichst vielen Wörtern einer Sprache erstellt, bei dem dann anhand von Matrizen die Wahrscheinlichkeit, dass Wort A auf Wort B folgt dargestellt bzw. errechnet wird. Neuronale Netze helfen hier insbesondere eine vielschichtigere Darstellung der Sprache zu produzieren, sodass zum Beispiel eine Verknüpfung zu Synonymen möglich ist (Beispielaussage: “Wort C ist Synonym für Wort B, welches in der Regel auf Wort A folgt. Deshalb ist die Wahrscheinlichkeit, das Wort C auf Wort A folgt hoch.”) Ein anderer Arbeitsschritt ist die sogenannte “Morphology”, die sich mit den Wortteilen einzelner Worte, z.B. Affixen (Präfix, Suffix, Infix), befasst.[30] Untersucht wird der Effekt, den einzelne Symbole auf die Bedeutung eines “Grundworts” haben (Amüsanter Grenzfall zum Selbsttest: Wie verändert sich die Bedeutung des Grundworts “fahren”, wenn das Präfix “um” hinzugefügt wird. Gerne auch auf die Betonung achten.) Beim “Parsing” werden die Beziehungen von Wörtern und Phrasen innerhalb eines Satzes analysiert.[31] Neben einer Isolierung einzelner Phrasen in einem Satz profitiert besonders das “Dependency Parsing”, welches die Beziehung zwischen einzelnen Wörtern untersucht und die grammatikalischen Regeln mit statistischen Erhebungsmethoden kombiniert, sodass neben Bedeutungspaaren auch die logisch überhaupt möglichen Paare herausgestellt werden.[32] Wieder kommt also die Kombinationsfähigkeit durch mehrdimensionale Verknüpfung der neuronalen Netze zum Tragen. Schließlich werden im Bereich der “Semantics” alle Arbeitsschritte kombiniert, sodass schlussendlich ein Lebenssachverhalt ermittelt werden kann.[33]


Funktionen des NLP

Da nun die Grundmethoden des NLP geklärt sind, wollen wir uns anschauen, wie NLP von DL bereits jetzt profitiert und zukünftig noch weiter profitieren kann und wo die praktischen Anwendungsfelder liegen: Der Technologie ist es möglich, Informationen aus Texten zu extrahieren. Das können zum Beispiel Eigennamen, Daten, Zeiten oder Preise (= “Named Entity Recognition”) sein.[34] Komplizierter wird es bei der “Event Extraction”. Hier können Situationen oder Gegebenheiten, die im Text erwähnt werden, ihren jeweiligen Auslösern (meist definiert durch Gerundien oder Verben) zugeordnet sowie Parameter (=Umweltinformationen) der Situation erkannt werden.[35] Auch Besitzverhältnisse, Anto- und Synonyme sowie natürliche Verhältnisse, wie familiäre oder geographische Gegebenheiten können erkannt werden.[36] In der juristischen Praxis können so beispielsweise Verträge ausgelesen werden, was auch teilweise schon praktiziert wird.[37] Vor der inhaltlichen Analyse steht natürlich die Klassifizierung von Texten.[38] Auch hier findet das NLP Anwendung. So kann die Software mit einem beliebigen Text “gefüttert” werden und feststellen, ob es sich um einen Vertrag (welcher Vertragstyp), ein Testament, eine Verwaltungsvorschrift oder den privaten Einkaufszettel handelt. Durch NLP können darüber hinaus Sätze extrahiert, neu angeordnet und miteinander verkettet, sprich zusammengefasst werden.[39] Die “Königsdisziplin” des NLP ist das Maschinelle Übersetzen (Machine Translation) einer Sprache in eine andere. Dafür muss die genaue Bedeutung eines Textes verstanden werden und in der Zielsprache auch erneut ausgedrückt werden können.[40] Wer hier nur an die Übersetzung von natürlichen Sprachen denkt, denkt unter Umständen zu kurz. Geht man einen Schritt weiter ist insbesondere die “Übersetzung” in Code interessant, der dann wiederum zur maschinellen Verarbeitung genutzt werden kann.

Das Natural Language Processing folgt also recht anschaulichen und scheinbar logischen Arbeitsschritten, um Sprache zu erkennen. Dabei macht DL einen signifikanten Unterschied bei der Leistungsfähigkeit dieser Algorithmen.


Hürden (technisch/institutionell) - Warum ist DL im Gegensatz zum Medizin-/ Finanzsektor im Rechtsbereich noch kaum verbreitet

Im Vergleich zu anderen Branchen ist im juristischen Bereich noch keine flächendeckende Anwendung von DL zu beobachten. Im Folgenden mögliche - aber nicht abschließende - Gründe dafür.


Faktische Hürden

Zunächst wollen wir die faktischen Hürden umreißen, die sich aus der Natur der Technologie selbst, aber auch einer möglichen Anwendung im juristischen Bereich ergeben. Wie oben schon hinreichend beschrieben sind Daten die essentielle Voraussetzung, um eine Arbeit mit neuronalen Netzen zu ermöglichen. Das Fehlen eben dieser Datenmengen, die in verarbeitbarer Form vorliegen, mit denen die Algorithmen trainiert werden können, blockiert hierbei eine flächendeckende Anwendung in der juristischen Praxis. Ein Grund dafür ist die nationale und sprachliche Beschränkung, die jedem Rechtssystem innewohnt. Schließlich kann bei der Auslegung und Anwendung nationaler Gesetze auch primär nur nationale Literatur und Rechtsprechung herangezogen werden. Dies verringert naturgemäß automatisch die Breite möglicher Urheber von angesprochenen Datensätzen. Ferner können diese als Ausdrucksweise nicht auf global anwendbare “Sprachen” der Mathematik oder zum Beispiel der menschlichen Anatomie zurückgreifen, sondern beschränken sich auf die “natürliche” deutsche Sprache. Mithin kann die zugängliche Datenmasse, auch wenn alle potentiellen Urheber von Daten diese proaktiv zur Verfügung stellen würden, niemals das Volumen anderer Anwendungsfelder erreichen. Auch zu beachten ist die Einzelfallgebundenheit und die damit einhergehende veränderte Risikoverteilung im juristischen Bereich. Während in anderen Anwendungsfällen vor allem Massenverfahren abgehandelt werden, deren Lösungen das Individuum in seinen Rechten nur gering berühren, geht es in der Juristerei meistens um Einzelfälle mit hohem Einfluss auf die persönliche Lebensführung. So hat ein Fehler bei der Sentiment Analysis - also der Gefühlslage eines Kundens - eines Online-Shops, welcher u.U. tausende Fälle schnell abhandelt, deutlich mildere Folgen als eine ähnliche Anwendung der Technologie bei der Vernehmung in einem Strafprozess.


Rechtliche und institutionelle Hürden

Neben den erläuterten möglichen faktischen Hürden bestehen auch einige rechtliche, die ein Grund dafür sein mögen, warum die Entwicklung und auch daran anschließend die Nutzung von DL Anwendungen im rechtlichen Bereich noch nicht so weit fortgeschritten ist, wie in manch anderen Branchen. Für Anbieter von Legal Tech Anwendungen, die keine Rechtsanwaltszulassung haben, stellt sich allgemein immer die streitige Frage, ob sie nach dem RDG verbotene Rechtsdienstleistungen erbringen.[41] Aber nicht nur nicht-anwaltliche Dienstleister sehen sich rechtlichen Unsicherheiten gegenüber, sondern auch Anwälte, wenn sie selbst oder in Kooperation mit Software-Anbietern Legal Tech Angebote anbieten.[42] Die Anwälte setzen sich nämlich berufs-, steuer und versicherungsrechtlichen Risiken aus.[43] Ferner stellen sich für Legal Tech Nutzer und Anbieter Haftungsfragen.[44] Wenn beispielsweise bei einem Legal Tech Tool Fehler auftreten, besteht für den Hersteller ein etwaiges Haftungsrisiko gegenüber dem Nutzer sowie des Nutzers gegenüber dem Endkunden.[45] Viele rechtliche Fragen stellen sich darüber hinaus hinsichtlich der Konformität von DL Anwendungen mit datenschutzrechtlichen Vorschriften aus der DSGVO und BDSG und zwar insbesondere, wenn die Anwendung über eine Cloud dem Nutzer zur Verfügung gestellt wird.[46] Sollte es sich bei dem Nutzer um einen Rechtsanwalt oder eine Rechtsanwaltskanzlei handeln, stellen sich überdies, trotz der Entschärfung des § 203 StGB, der Ergänzung von § 43a BRAO sowie der Einfügung von § 43e BRAO, weiterhin aufgrund des Datenexports von geheimhaltungsbedürftigen Mandatsdaten an Dritte rechtliche Fragen des Straf- und Berufsrechts.[47]  

 

 


[1] BaFin, Big Data Trifft auf Künstliche Intelligenz, 2018, abrufbar unter https://www.bafin.de/SharedDocs/Downloads/DE/dl_bdai_studie.html (zuletzt abgerufen 5/2019); Hildesheim/Michelsen, Künstliche Intelligenz im Jahr 2018 - Aktueller Stand von branchenübergreifenden KI-Lösungen: Was ist Möglich? Was nicht? Beispiele und Empfehlungen in: Buxmann/Schmidt, Künstliche Intelligenz Mit Algorithmen zum wirtschaftlichen Erfolg, 2018, S.123.
[2] BaFin, (Fn.1).
[3] Vgl. für ausführliche Erklärungen dieser Lernverfahren zum Beispiel Murphy, Machine Learning A Probalistic Perspective, 2012, S. 2 f. oder Marsland, Machine Learning An Algorithmic Perspective 2015, S. 6 ff.
[4] Buxmann/Schmidt, Grundlagen der Künstlichen Intelligenz und des Maschinellen Lernens, in: Buxmann/Schmidt, Künstliche Intelligenz Mit Algorithmen zum wirtschaftlichen Erfolg, 2018, S. 13; Wess, Mit künstlicher Intelligenz immer die richtigen Entscheidungen treffen, in: Buxmann/Schmidt, Künstliche Intelligenz Mit Algorithmen zum wirtschaftlichen Erfolg, 2018, S. 145.
[5] Buxmann/Schmidt, (Fn. 4) S. 13.
[6] Buxmann/Schmidt, (Fn. 4) S. 14.
[7] Buxmann/Schmidt, (Fn. 4) ebd.
[8] Buxmann/Schmidt, (Fn. 4) ebd.
[9] Buxmann/Schmidt, (Fn. 4) ebd.
[10] BaFin, (Fn. 1); MathWorks, Introducing Deep Learning with MATLAB, S. 3, abrufbar unter https://www.mathworks.com/content/dam/mathworks/tag-team/Objects/d/80879v00_Deep_Learning_ebook.pdf (zuletzt abgerufen 5/2019).
[11] BaFin, (Fn. 1).
[12] BaFin, (Fn. 1); vgl. für eine Übersicht an Netzwerkstrukturen Van Veen 2016, The Neural Network Zoo, abrufbar unter: http://www.asimovinstitute.org/neural-network-zoo/ (zuletzt abgerufen 5/2019).
[13] BaFin, (Fn.1); Buxmann/Schmidt, (Fn. 4) S. 12.
[14] BaFin, (Fn. 1).
[15] Ebd.
[16] MathWorks, (Fn. 10) S. 7.
[17] MathWorks, (Fn. 10) ebd.
[18] MathWorks, (Fn. 10) ebd.
[19] MathWorks, (Fn. 10) ebd.
[20] MathWorks, (Fn. 10) ebd.

[21] MathWorks, (Fn. 10) ebd.
[22] Man spricht in diesem Bereich vom Industrial Internet of Things, IIoT.
[23] Saar Yoskovitz, Getting to the Next Level of Machine Reliability, 2017, abrufbar unter: https://www.augury.com/blog/next-level-machine-reliability/ (zuletzt abgerufen 3/2019).
[24] zum kompletten Projekt, das als Abschlussprojekt eines TechLabs-Jahrgangs entstanden ist, mit anschaulicher Erklärung der technischen Umsetzung: Husseini/Spronk/Masanneck/Gutewort, Bone age prediction through x-ray images, 2019, abrufbar unter: https://medium.com/techlabsms/bone-age-prediction-through-x-ray-images-6e181d900a7a (zuletzt abgerufen 4/2019)
[25] https://martin-thoma.com/word-error-rate-calculation/.
[26] Xiong/Wu et al.., The Microsoft 2017 Conversational Speech Recognition System, Microsoft AI and Research Technical Report MSR-TR-2017-39, August 2017.
[27] Rehling, How Natural Language Processing Helps Uncover Social Media Sentiment, 2011, abrufbar unter: https://mashable.com/2011/11/08/natural-language-processing-social-media/?europe=true#RXwjBfPr_Eql (letzter Zugriff 03/2019).
[28] Copestake, Lecture Script National Language Processing (Cambridge University), 2004, abrufbar unter: https://www.cl.cam.ac.uk/teaching/2002/NatLangProc/revised.pdf (zuletzt abgerufen 3/2019).
[29] Otter/Medina/Kalita, in: A Survey of the Usages of Deep Learning in Natural Language Processing (2018), S. 9.
[30] Otter/Medina/Kalita, (Fn. 29) S. 12.

[31] Otter/Medina/Kalita, (Fn. 29) S. 13.
[32] Wang/Berant/Liang, in: Building a Semantic Parser Overnight, in: Annual Meeting of the ACL and the 7th International Joint Conference on NLP, Vol 1. (2015) S. 1332-1342.
[33] Otter/Medina/Kalita, (Fn. 29) S. 16.
[34] Otter/Medina/Kalita, (Fn. 29) S. 19.
[35] Otter/Medina/Kalita, (Fn. 29) S. 20.
[36] Otter/Medina/Kalita, (Fn. 29), e
bd.
[37] vgl. bspw. “Leverton”: https://www.leverton.ai/.
[38] Otter/Medina/Kalita, (Fn. 29) S. 21.
[39] Otter/Medina/Kalita, (Fn. 29) ebd.
[40] Otter/Medina/Kalita, (Fn. 29) S. 23.

[41] Vgl. dazu aktuell LG Berlin, Urteil v. 15.1.2019 - 15 O 60/18 zum Legal Tech Anbieter wenigermieten.de, sowie ausführlich zu der Frage Remmertz, Legal Tech auf dem Prüfstand des RDG, LR 163-170 oder Hartung, in: Hartung/Bues/Halbleib (Hrsg.), Legal Tech, 2018, S. 245 ff.
[42] Vgl. dazu ausführlich Hartung, (Fn. 41) S. 249 ff.
[43] Vgl. dazu ausführlich Hartung, (Fn. 41) ebd.
[44] Ausführlich zu aktuellen und zukünftigen Haftungsgefahren Jungk, Anwaltschaft online - Haftungsfragen in der digitalen Welt, AnwBl 2017, 776.
[45] Vgl. Wagner, Legal Tech und Legal Robots in Unternehmen und den sie beratenden Kanzleien, BB 2018, 1097, 1098.
[46] Vgl. Wagner, BB 2018, 1097.
[47] Vgl. Wagner, ebd.; zu den Gesetzesänderungen vgl. Gesetz zur Neuregelung des Schutzes von Geheimnissen bei der Mitwirkung Dritter an der Berufsausübung schweigepflichtiger Personen vom 30.10.2017, BGBl. I 2017, S. 3618.


 

 

Die Welt der EDRA Media

Die LRZ erscheint bei der EDRA Media GmbH.
EDRA Media ist ein innovativer Verlag,
Veranstalter und Marketingdienstleister auf den
Gebieten des Rechts und der Medizin.

Gesellschafter sind die Edra S.p.A. (LSWR Group)
und Dr. Jochen Brandhoff.

 

​EDRA MEDIA│ Innovation, Sustainability, Resilience

LEGAL REVOLUTION │Die Rechtsmesse

​LR ACADEMY│ Erlebe Spezialistenwissen

Ihr Kontakt

Journal@LRZ.legal

+49 69 3487 920-92

 

Zeil 109
60313 Frankfurt a. M.

Folgen Sie uns