Каб атрымаць інфармацыю аб арыенцірах з аб'екта адказу анатацыі ў кантэксце пашыранай функцыі разумення відарысаў API Google Vision для выяўлення арыенціраў, нам трэба выкарыстоўваць адпаведныя палі і метады, прапанаваныя API. Аб'ект адказу анатацыі - гэта структура JSON, якая змяшчае розныя ўласцівасці і значэнні, звязаныя з вынікамі аналізу выявы.
Па-першае, мы павінны пераканацца, што выява была паспяхова апрацавана API і што аб'ект адказу змяшчае неабходную інфармацыю. Гэта можна зрабіць, правяраючы поле «статус» аб'екта адказу. Калі стан "ОК", гэта азначае, што аналіз выявы прайшоў паспяхова і мы можам працягваць выманне інфармацыі аб арыенціры.
Інфармацыю пра арыенцір можна атрымаць з поля "landmarkAnnotations" аб'екта адказу. Гэта поле ўяўляе сабой масіў анатацый, дзе кожная анатацыя ўяўляе выяўлены арыенцір на малюнку. Кожная анатацыя арыенціра змяшчае некалькі уласцівасцей, у тым ліку месцазнаходжанне, апісанне і адзнаку.
Уласцівасць "размяшчэнне" дае каардынаты абмежавальнай рамкі выяўленага арыенціра. Гэтыя каардынаты вызначаюць становішча і памер арыенціра на малюнку. Аналізуючы гэтыя каардынаты, мы можам вызначыць дакладнае месцазнаходжанне арыенціра.
Уласцівасць "description" забяспечвае тэкставае апісанне славутасці. Гэта апісанне можа выкарыстоўвацца для ідэнтыфікацыі арыенціра і прадастаўлення дадатковага кантэксту для карыстальніка. Напрыклад, калі API выяўляе Эйфелеву вежу на малюнку, уласцівасць апісання можа ўтрымліваць тэкст «Эйфелева вежа».
Уласцівасць "score" прадстаўляе ацэнку даверу API пры выяўленні арыенціра. Гэты бал мае значэнне ад 0 да 1, дзе больш высокі бал паказвае на больш высокі ўзровень даверу. Аналізуючы гэты бал, мы можам ацаніць надзейнасць выяўленага арыенціра.
Каб атрымаць інфармацыю пра арыенцір з аб'екта адказу анатацыі, мы можам прайсці праз масіў "landmarkAnnotations" і атрымаць доступ да адпаведных уласцівасцей для кожнай анатацыі. Затым мы можам захоўваць або апрацоўваць гэтую інфармацыю па меры неабходнасці для далейшага аналізу або адлюстравання.
Вось прыклад фрагмента кода ў Python, які дэманструе, як атрымаць інфармацыю пра арыенцір з аб'екта адказу анатацыі з дапамогай кліенцкай бібліятэкі Google Cloud Vision API:
python from google.cloud import vision def extract_landmark_info(response): if response.status == 'OK': for annotation in response.landmark_annotations: location = annotation.location description = annotation.description score = annotation.score # Process the landmark information as needed print(f"Landmark: {description}") print(f"Location: {location}") print(f"Score: {score}n") else: print('Image analysis failed.') # Assuming you have already authenticated and created a client client = vision.ImageAnnotatorClient() # Assuming you have an image file 'image.jpg' to analyze with open('image.jpg', 'rb') as image_file: content = image_file.read() image = vision.Image(content=content) response = client.landmark_detection(image=image) extract_landmark_info(response)
У гэтым прыкладзе функцыя `extract_landmark_info` прымае аб'ект адказу анатацыі ў якасці ўваходных дадзеных і перабірае масіў `landmark_annotations`. Затым ён здабывае і друкуе інфармацыю пра арыенцір для кожнай анатацыі, уключаючы апісанне, месцазнаходжанне і адзнаку.
Прытрымліваючыся гэтага падыходу, мы можам эфектыўна здабываць інфармацыю аб арыенцірах з аб'екта адказу анатацыі, які прадстаўляецца пашыранай функцыяй разумення малюнкаў API Google Vision для выяўлення арыенціраў.
Іншыя апошнія пытанні і адказы адносна Пашыранае разуменне малюнкаў:
- Якія прадвызначаныя катэгорыі для распазнавання аб'ектаў у Google Vision API?
- Які рэкамендаваны падыход для выкарыстання функцыі выяўлення бяспечнага пошуку ў спалучэнні з іншымі метадамі мадэрацыі?
- Як мы можам атрымаць доступ і адлюстраваць значэнні імавернасці для кожнай катэгорыі ў анатацыі бяспечнага пошуку?
- Як мы можам атрымаць анатацыю бяспечнага пошуку з дапамогай API Google Vision у Python?
- Якія пяць катэгорый уключае функцыя выяўлення бяспечнага пошуку?
- Як функцыя бяспечнага пошуку Google Vision API выяўляе нецэнзурнае змесціва на выявах?
- Як мы можам візуальна вызначыць і вылучыць выяўленыя аб'екты на малюнку з дапамогай бібліятэкі падушак?
- Як мы можам арганізаваць здабытую інфармацыю аб аб'екце ў таблічным фармаце, выкарыстоўваючы фрэйм дадзеных pandas?
- Як мы можам атрымаць усе анатацыі аб'екта з адказу API?
- Якія бібліятэкі і мовы праграмавання выкарыстоўваюцца для дэманстрацыі функцыянальнасці API Google Vision?
Больш пытанняў і адказаў глядзіце ў раздзеле "Пашыранае разуменне малюнкаў".