Bericht MLUGS Treffen im Januar 2020
21. January 2020
Protokoll
Vorstellungsrunde
- Andreas, Software-Entwickler, AX-Semantics
- Uwe, ST2C
- Florian, Kärcher
- Alessandro, Security Manager, Bosch
- Brian
- Julian, Master-Student, Bosch
- Thomas, Data-Scientist, AB Sensing
- Jan, Mathematiker, selbständig
- Roland
- Jacob, Data-Scientist, Allianz
- Ralf, Data-Scientist
- Jens, Data-Scientist, AKKA
- Tin, Dozent, DHBW Stuttgart
+2 Nachzügler
Jens: alibi und tf-explain
- Erklärbarkeit ist sinnvoll
- auch zur Erkennung von falschen labels
tf-explain
- https://github.com/sicara/tf-explain
- sehr nah an tensorflow/keras
- ermöglicht heatmaps der aktivierungen
- Visualisierung von Gradienten
- Occlusion Sensitivity verdeckt Teile des Bildes und erreichnet so die Teile des Bildes, die am meisten zur Erkennung beitragen
alibi
- https://github.com/SeldonIO/alibi
- https://docs.seldon.io/projects/alibi/en/stable/overview/algorithms.html
Anchors:
- 3 verschiedene Arten von Modellen: Tabular, Text, Images
- https://docs.seldon.io/projects/alibi/en/stable/methods/Anchors.html
CEM:
- feature entfernen bei gleicher aussage
- https://docs.seldon.io/projects/alibi/en/stable/methods/CEM.html
CF:
- wieviel veränderung ist nötig, um die klasse zu wechseln
- verwendet eine distanz-funktion um die änderung zu bestimmen
- https://docs.seldon.io/projects/alibi/en/stable/methods/CF.html
Counterfactuals Guided by Prototypes:
TrustScores:
- versucht hohes vertrauen durch distanz auszurechnen
- https://docs.seldon.io/projects/alibi/en/stable/methods/TrustScores.html
Beispiele:
für Pytorch:
Tin: Demo streamlit.io
- alles in Python. kein Frontend mehr nötig. Deployment auch gelöst.
- ziel: für data-scientist schneller dinge ins web bringen
- opensource: https://github.com/streamlit/streamlit
- coole demo: https://github.com/streamlit/demo-self-driving
konkurrenten:
next
- Date: 2020-02-18
- Themen
- Uwe: Kaggle Survey
- Tin: Adversial-ML hacking NNs