Merge branch 'main' of https://git.wmi.amu.edu.pl/s464915/JARVIS
This commit is contained in:
commit
5ed603bafd
@ -1,10 +1,5 @@
|
||||
user: Dzień dobry
|
||||
system: Czesc, jestem agentem dialogowym przyjmujacym zamowienia w restauracji.
|
||||
Moge doradzic ci w wyborze odpowiedniej pozycji z menu.
|
||||
W czym moge ci pomoc?
|
||||
user: Chciałbym zjeść 3-daniowy obiad z kuchni włoskiej.
|
||||
system: Proponuję
|
||||
"Sałatka caprese",
|
||||
"Lasagne",
|
||||
"Tiramisu"
|
||||
user: Mógłbyś mi napisać z jakich składników składa się sałatka?
|
||||
user Dzień dobry hello()
|
||||
system Czesc, jestem agentem dialogowym przyjmujacym zamowienia w restauracji. Moge doradzic ci w wyborze odpowiedniej pozycji z menu. W czym moge ci pomoc? welcomemsg()
|
||||
user Chciałbym zjeść 3-daniowy obiad z kuchni włoskiej. inform()
|
||||
system Proponuję "Sałatka caprese", "Lasagne", "Tiramisu" select()
|
||||
user Mógłbyś mi napisać z jakich składników składa się sałatka? reqmore()
|
Can't render this file because it contains an unexpected character in line 7 and column 18.
|
35
embeddings.py
Normal file
35
embeddings.py
Normal file
@ -0,0 +1,35 @@
|
||||
import numpy as np
|
||||
import torch
|
||||
from transformers import AutoModel, AutoTokenizer
|
||||
|
||||
tokenizer = AutoTokenizer.from_pretrained("Geotrend/distilbert-base-pl-cased")
|
||||
model = AutoModel.from_pretrained("Geotrend/distilbert-base-pl-cased")
|
||||
|
||||
text = """
|
||||
"nazwa": "Tatar wołowy","""
|
||||
# "skladniki": [
|
||||
# "wołowina",
|
||||
# "cebula",
|
||||
# "ogórki kiszone",
|
||||
# "musztarda",
|
||||
# "jajko",
|
||||
# "pieprz",
|
||||
# "sól"
|
||||
# ],
|
||||
# "alergeny": [
|
||||
# "jajko",
|
||||
# "gorczyca"
|
||||
# ]
|
||||
# """
|
||||
encoded_input = tokenizer(text, return_tensors='pt', padding=True)
|
||||
output = model(**encoded_input)
|
||||
prompt = "tatar"
|
||||
encoded_prompt = tokenizer(prompt, return_tensors='pt', padding=True)
|
||||
output_prompt = model(**encoded_prompt)
|
||||
|
||||
text_embedding = output.last_hidden_state[:, 0, :]
|
||||
prompt_embedding = output_prompt.last_hidden_state[:, 0, :]
|
||||
cosine = torch.nn.functional.cosine_similarity(
|
||||
text_embedding, prompt_embedding, dim=1)
|
||||
|
||||
print(cosine.item())
|
Loading…
Reference in New Issue
Block a user