애드센스 광고활성 에드센스 로보차단 네이버 네이버 에널리틱스

상세 컨텐츠

본문 제목

[21.1.5] 경제뉴스 ( UNIST, 복제 불가 수준 위조 방지 기술 개발 / 버냉키 "美 경제 예상보다 빠르게 회복…저금리 4년 더 이어질 것" / 벤츠가 콕 찍은 ‘사운드AI’ 스타트업, 코클리어닷에이아이)

경제/뉴스따라잡기

by 시나브로 2021. 1. 5. 06:22

본문

728x90

● UNIST, 복제 불가 수준 위조 방지 기술 개발

 

▲개발된 미세 공액고분자 입자(알갱이)의 위조식별정보 종류와 이를 이용한 위조방지장치 예시. 입자를 오른쪽 그림과 같이 극성용액과 같은 물에 담그면 구조색이 사라지면서 입자 내부에 3차원 홀로그램과 형광이 나타난다(a). 3D 홀로그램 패턴이 숨겨진 UNIST라는 글자(b). 입사광 방향에 따른 입자의 구조색 변화(c). 빛 방향에 따라 다른 글자로 변화는 위조 방지 장치(d). 물에 담그면 사라는 문자(e)와 투명 유연 필름 내부에 구현된 위조 방지 문자(f). (사진제공=울산과학기술원)

복제 불가능한 수준의 위조방지시스템을 만드는 새로운 원천 기술이 나왔다.

 

울산과학기술원(UNIST)은 이지석 교수 연구팀이 미세 ‘공액고분자’ 입자 내부에 위조 식별 정보를 다중적으로 숨겨 놓는 새로운 제조 기술을 개발했다고 5일 밝혔다.

 

연구팀이 개발한 공액 고분자 입자는 보는 방향에 따라 색깔이 달라지는 특성(구조색)이 있다. 이 입자를 물에 담그면 구조색이 사라지면서 입자 내부에 저장된 3차원 홀로그램(입체 문양)이 나타난다. 입자에 빛을 비추면 3차원 홀로그램 형광 패턴이 생긴다.

 

이 교수는 “입자(매질) 내에 구현된 3차원 홀로그램은 착시현상을 이용하는 기존 홀로그램과 달리 보는 각도에서 모두 형태가 다른 진정한 삼차원”이라며 “공액 고분자 매질에 ‘풀 패러랙스 (full-parallax)’ 특성이 있는 3차원 홀로그램을 구현한 것은 세계 최초”라고 밝혔다.

 

5만 원 지폐에는 은선, 숨겨진 그림 등 독립된 위조방지장치가 숨어있는데, 이 입자로 여러 위조방지장치를 하나의 글자에 집약시킬 수 있다. 보는 방향에 따라 다른 글자가 나타나고, 물에 담갔을 때 글자가 사라지는 위조방지장치가 대표적이다. 또 글자의 ‘픽셀’ 역할을 하는 입자 내부에는 3차원 홀로그램이 저장돼있어 픽셀이 또 다른 위조방지장치가 된다.

 

미세 공액고분자 입자 제조에 쓰인 기술은 고정밀ㆍ자동화 공정이라 쉽게 응용할 수 있다. 연구진은 이를 응용해 머리카락 굵기 입자 내부에 고해상도 명화를 프린팅했다. 육안으로는 보이지 않지만, 시중에 파는 확대경만으로 쉽게 명화를 볼 수 있다.

 

또 태건트(위조방지첨가제) 역할을 할 수 있는 미세입자를 대량으로 제조하는 데도 성공했다. 이 미세입자는 가로, 세로로 4개씩 총 16개의 격자가 있으며 각 격자 당 4개의 색상을 구현할 수 있다. 격자당 발현되는 색상 조합을 다르게 하면 미세입자 1개당 약 40억 이상의 암호 코드를 만들 수 있다.

 

이 교수팀은 대학원생 및 학부 졸업생과 함께 AMHOLO라는 위조방지 시스템 개발 회사를 창업해 해당 기술의 상용화에 박차를 가하고 있다.

 

이번 기술은 재료 분야 최고 권위지인 네이처 머터리얼스(Nature Materials)에 4일 자(현지시간)로 공개됐다.

(출처 : 이투데이)

 

▶관련뉴스

 

위조방지 첨단기술 개발

www.fnnews.com/news/202101041516334002

 

UNIST, 커패시터에 이차전지 장점 더한 슈퍼커패시터 개발

www.etoday.co.kr/news/view/1966940?utm=joinnews

 

 


 

● 버냉키 "美 경제 예상보다 빠르게 회복…저금리 4년 더 이어질 것"

 

2021 미국경제학회
'팬데믹 충격과 정책대응' 세션

"증시·부동산·제조업 경기 좋지만
서비스는 부진 'K자 양극화' 진행
이젠 금융시스템 재점검 나서야"

 

사진=AP

2008년 글로벌 금융위기 극복을 성공적으로 이끈 벤 버냉키 전 미국 중앙은행(Fed) 의장(사진)이 “미 경제가 예상보다 빠르게 회복하고 있다”고 진단했다. 3일(현지시간) 화상으로 열린 미국경제학회(AEA) 연례총회 자리에서다. 그는 “12년 전 위기 때와 같이 금융감독 시스템을 재점검할 절호의 기회”라고 강조했다.

 

 

“공격적 통화 정책 효과”

 

버냉키의 별명은 ‘헬리콥터 벤’이다. 공중에서 현금을 무차별 살포할 정도의 공격적인 통화 팽창 정책을 선호한다고 알려져서다. Fed는 금융위기 당시 연 5.25%이던 기준금리를 1년도 안 돼 제로 수준으로 낮췄다. 또 1년8개월에 걸쳐 1조3000억달러를 시장에 공급하는 초유의 양적완화를 단행했다.


제롬 파월 현 Fed 의장도 선례를 답습하고 있다. 신종 코로나바이러스 감염증(코로나19) 팬데믹 선언이 나온 작년 3월 두 차례 긴급회의를 소집해 10여 년 만에 또다시 제로 금리 시대를 열었다. 매달 1200억달러씩 채권도 매입 중이다. 이날 ‘팬데믹 충격과 정책 대응’ 세션에 참석한 버냉키는 “Fed의 발 빠른 대응으로 경제 충격이 최소화됐다”고 평가했다.


2006년 Fed 의장으로 취임해 8년간 통화당국을 이끈 버냉키는 “작년 6월만 해도 Fed는 2020년 성장률을 -6.5%로 예상했다”며 “지금은 -2.0%로 높여 잡았을 정도로 회복세가 뚜렷하다”고 말했다. 그는 “전례 없는 보건위기를 맞아 공격적인 통화 팽창 정책을 편 게 주효했다”고 덧붙였다.

 

핵심 정책 변수로 꼽히는 미 실업률은 작년 말 6.7% 수준에 그쳤을 것으로 추정했다. 수개월 전만 해도 9% 밑으로 떨어지는 걸 기대하기 어려웠다. 버냉키는 “팬데믹 선언 초기에 대규모 기업 부도 사태를 걱정했지만 낮은 금리 덕분에 현실화하지 않았다”며 “Fed의 초저금리 기조가 약 4년간 지속될 것”으로 내다봤다.


버냉키는 “일반적인 경기 침체는 사회 전반에 미치는 충격이 크지만 코로나19 위기는 일종의 자연재해이기 때문에 양상이 다르다”며 “증시와 부동산뿐만 아니라 제조업 경기도 나쁘지 않다”고 했다. 다만 대면 서비스 업종과 저임금 근로자가 큰 타격을 받는 ‘K자형 양극화’가 진행되고 있다고 지적했다.


버냉키는 “2008년 위기 때 금융 부실을 막기 위해 전체 시스템을 점검하고 여러 관리감독 장치를 마련했다”며 “오랜만에 다시 기회가 온 만큼 그림자금융(규제가 약한 비제도권) 시장을 들여다보면 좋겠다”고 조언했다.

 

 

 

라인하트 “위기 때 정부 대출 급증”

 

또 다른 세션 ‘재앙 관리하기’에 참석한 카르멘 라인하트 세계은행 수석이코노미스트는 “경제적으로 밀접하게 얽힌 국가들은 위기 때 재정적으로 더 긴밀하게 협력할 가능성이 높다”고 말했다. 한 나라에서 위기가 터지면 경제적으로 얽힌 다른 나라도 타격을 받을 수 있기 때문에 서로 협조할 가능성이 크다는 것이다.

 

라인하트는 케네스 로고프 하버드대 경제학과 교수와 함께 세계 금융위기 역사를 연구한 책 《이번엔 다르다》로 유명한 석학이다. 그는 다른 두 명의 저자와 공동 집필한 ‘재난 대처: 두 세기의 정부 간 대출’ 논문도 이날 발표했다.


라인하트는 논문에서 지난 200년간 정부, 중앙은행, 국제기구 등을 포함한 정부 간 대출을 집중 분석했다. 그 결과 정부 간 대출은 전쟁, 금융위기 때 급증하는 경향이 있다는 사실을 입증했다. 코로나19가 확산하기 시작한 지난해 1월 이후 5월까지 민간 대출은 급감했지만 세계은행, 국제통화기금(IMF), 중앙은행 등을 통한 정부 간 대출은 대폭 증가했다. 논문에 따르면 이 기간 정부 간 대출액은 1000억달러를 넘는다.

 

민간 대출은 경기 순응적인 반면 정부 대출은 경기 조정적이라는 게 라인하트의 설명이다. 민간 대출은 경기에 비례해 늘어나거나 줄어드는 데 비해 정부 간 대출은 경기가 좋을 때 줄어들고, 경기가 나쁠 때 늘어난다는 것이다. 코로나19 사태 등 글로벌 경제에 충격을 주는 사건이 터졌을 때 정부 간 대출이 경기 급락 충격을 줄여주는 완충장치 역할을 할 수도 있다는 의미로 해석된다.

(출처 : 한국경제)

 


 

● 벤츠가 콕 찍은 ‘사운드AI’ 스타트업, 코클리어닷에이아이

 

 

재택근무가 늘어나면서, 내가 듣는 소리의 상당량이 사람이 내는 것이 아닌 게 됐다. 전자레인지가 음식을 다 데웠을 때 내는 알람, 전기포트 속에서 팔팔 끓은 물이 이제는 커피를 마실 수 있다고 수증기를 내뿜는 소리, 가끔씩 창문을 두드리는 바람 같은 것이 내게 어떤 행동을 요구하는 정보를 알려준다.

 

만약 이같은 일상생활의 소리를 사람이 아닌 컴퓨터가 모두 알아듣고 적절한 행동을 취하게 된다면? 예를 들어 자동차의 엔진 소리를 듣고 어떤 문제가 있는지를 예측해 정비소에 점검 일정을 잡아준다거나, 내 휘파람 소리를 알아듣고 알아서 집안의 조명을 모두 꺼주는 일을 인공지능이 할 수 있지 않을까?

 

다만, 아직 컴퓨터는 사람 목소리 외 다른 소리를 듣고 구분하는 능력은 부족하다. 인공지능 기술이 개발되고 있지만 시각에 비해 청각, 청각에서도 환경음에 대한 연구가 많이 이뤄지지 않은 까닭이다. 코클리어닷에아이는 이 환경음을 체계화해 ‘사운드AI’ 솔루션을 만들어내는 스타트업이다.

 

지난해 12월, 벤츠로 유명한 독일의 다임러그룹이 국내 엑셀러레이터 스파크랩스와 손잡고 ‘스타트업 아우토반 엑스포데이’를 열었다. 일종의 데모데이인데, 이때 이수빈 코클리어닷에이아이 최고운영책임자(COO)가 무대에 올라 벤츠와 협력 사례를 발표했다. 코클리어닷에이아이의 기술을 벤츠의 인포테인먼트 시스템인 MBUX에 적용하는 프로젝트가 어떻게 성사됐고 진행되어 왔는지에 대한 설명이었다.

 

그동안의 딥러닝 연구에서는 컴퓨터가 사람의 말을 얼마나 정확하게 알아듣는지, 그 의미와 맥락을 자연스럽게 받아들이는지에 집중해 왔기 때문에, ‘환경음’을 말하는 이수빈 이사의 발표가 새로웠다. 더 이야기를 듣고 싶다고 제안했고, 화상미팅을 통해 인터뷰가 성사됐다. 이수빈 COO를 비롯해 코클리어닷에이아이의 공동창업자들은 드물게도 대학에서 오디오 데이터 분석을 연구해온 이들이다. 음악도, 기술도 좋아하던 이들이 두 마리 토끼를 잡기 위해 창업한 것이 코클리어닷에이아이다.

 

이수빈 COO에게 목소리가 아닌 환경음 데이터를 모아 이를 구분해 내는 솔루션이 왜 필요한지, 그리고 어떤 기술적 난제가 있는지 등을 물었다. 또, 벤츠를 비롯한 기업과 협업은 어떻게 이뤄지고 있는지에 대한 답을 들었다. 이수빈 COO는 코클리어닷에이아이와 벤츠의 협업 프로젝트를 총괄한 인물이기도 하다.

 

그동안 오디오를 갖고 인공지능 기술을 만드는데는 사람의 목소리를 분석했다. 그런데 음성이 아니라 사운드 AI 기술을 개발한 계기가 있나?

보통 투자 IR을 다닐 때 처음 나오는 질문이 그거다. 문제해결(problem-solving)의 첫 단계인데, AI 연구의 궁극적인 목표는 사람의 감각기관을 닮은 기술을 만드는 것이다. 시각적 정보를 다루는 컴퓨터 비전은 많은 걸 보고 이해하는 수준에 이르렀다. 사진 속에 어떤 오브젝트가 있었는지를 구분하는데, 자율주행차를 비롯해서 산업별로 그에 맞는 솔루션을 개발하고 있다.

 

그러나 오디오 같은 경우는 주로 사람 목소리를 알아듣고 이해하는 것 중심으로 인공지능 기술이 발전해왔다. 그 외의 다른 소리를 알아들어서 이해한다는 콘셉트로 AI 솔루션을 만드는 것이 우리가 최초다. 그동안 나온 다른 솔루션들은 대화에 참여한 인원이 몇 명까지인지 그 소리를 구분한다거나, 아기 울음소리를 알아듣는 것 정도였다. 완전히 딥러닝 베이스로 풀어낸 경우는 우리가 처음이다.

 

인공지능이 궁극적으로 사람처럼 청각 인지 능력을 갖춰가는데 필요한 여러 요소가 있다. 우리는 그중에서 첫 타깃을 환경으로 잡았다. 다양한 환경을 이해해 비언어적 의미를 파악한다는 걸 하나의 테마로 개발을 진행 중이다.

 

여기서, 이수빈 COO는 시각과 청각의 연구 환경 조건을 비교했다. 예를 들어 시각과 관련한 딥러닝 연구에서는, 사진이나 영상의 모든 요소를 구분해서 인식한다. 눈으로 보는 모든 것을 컴퓨터가 학습할 수 있게 하는 것이다. 그러나 청각의 경우는 다르다. 사람 목소리 외에, 귀로 듣는 대부분의 환경음에 대한 체계화된 데이터의 수가 적다. 따라서 연구 속도도 더딜 수밖에 없다. 사람의 목소리를 알아듣고 대화를 풀어내는 수준까지는 올라왔으나, 사람 목소리 외의 여러 소리에 대한 딥러닝 연구는 많이 진행되지 못했다는 걸 지적한 것이다.

 

매우 중요한 분야인데 그동안은 다른 경쟁자들이 사운드AI에 들어오지 않았을까?

사운드AI가 기술적으로 완성되기 위해서는 굉장히 많은 필요조건이 있다. 많은 소리가 존재하다보니 카테고리화하는 것이 처음이었다. 예를 들자면 ‘똑똑’이라는 소리를 노크라 알아들을 수도 있지만, 단순 마찰음으로 해석할 수도 있다. 비전(vision)과는 달리 소리 쪽에서는 각 소리를 카테고리화하는 온톨로지(개념을 컴퓨터가 이해할 수 있는 형식으로 명확하고 명시적으로 정의하고 규정하는 것)조자 되지 않았었다.

 

마이크로폰의 성능도 영향을 많이 미친다. 딥러닝 기술이 대두되기 전까지는 성능이 안 올라온 것도 맞다. AI스피커처럼 오디오가 메인 소스가 되는 IoT 기반 하드웨어도 별로 없었다. 스마트폰도 거의 통화에만 맞춰진 스펙이었다. 그러나 지금은 AI스피커도 생기고 CCTV에도 인터넷이 연결돼 IoT 플랫폼에 귀속이 되면서 사운드AI에 대한 관심이 높아지고 있다. 이전에는 하고 싶어도 여러 현실적인 문제로 인해서 어려웠다.

 

하나 더 말하자면, 비전 연구자가 100명이 이다고 하면 오디오 연구자는 1명 있다고 봐야 한다. 리서치 파워의 차이도 있다. 여러 복합적인 이유로 연구가 이뤄지지 않았으나 요즘은 인프라가 받쳐주는게 생겨서 급격도로 관심이 높아지고 있는 시장이다.

 

인프라도 척박하고, 많이들 시도하지 않는 분야였는데 왜 오디오에 관심을 갖고 창업을 했나?

공동창업자들이 속한 연구실이 음악 자체를 분석하는 테크놀로지를 연구하는 곳이었다. 음악과 엔지니어링을 동시에 가져가고 싶다는 생각을 항상 해왔다. 음악 콘텐츠를 엔지니어링으로 풀어볼 수 있는 샤잠 같은 솔루션에서 동기를 얻기도 했다. 두 마리 토끼를 잡아보고 싶었다.

 

사람의 목소리는 휴대폰도이나 AI 스피커 등으로 수집이 가능하다. 환경음은 모으는데도 쉽지 않았을 것 같고, 이를 학습해 솔루션으로 만드는 것도 어려웠을 것 같다. 어떤 부분에서 기술적으로 사운드AI를 구현하는데 고충이 있었나?

사운드는 카테고리도 많은데다가, 한 카테고리에서도 많은 양의 데이터를 모아야 하니까 이부분이 보틀넥(기술을 개발하는데 병목현상을 일으키는 국나)이 됐다. 일단은 고품질의 마이크에서 다양한 상황과 환경의 데이터를 생성하는 플랫폼을 만들어서 데이터가 부족한 문제를 탈피하려고 했다.

 

그대신 어느정도 초기 모델이 나오면 직접 녹음을 하거나 앱이나 웹에서 자동으로 긁어오는 등의 수단과 방법을 가리지 않았다. 양적으로 어느 정도 레벨의 수준에 올라오면 (데이터) 생성에는 가속이 붙는다. 자세히 말하긴 어렵지만, 고품질의 소량 음원을 직접 녹음하는 것으로부터 시작해 데이터를 불려나가는 것에서 독특함을 가지고 있다.

 

컴퓨터 비전의 경우에는 사진 안에 있는 여러 구성 요소를 카테고리로 구분해 라벨링하는게 고도화되어 있다. 시각적인 것은 라벨링을 하기 비교적 쉬울 것 같은데, 환경음은 라벨링을 어떻게 하나?

라벨링하는 것에서는 몇초부터 몇초사이 어떤 소리가 있었다라고 구분하는 것이 룰이다.

 

소리가 섞여 있을 때는 어떻게 하나?

섞여 있을 때는 지배적인(dominant) 소리를 먼저 구분한다. 가까이에서 나는 소리가 조금 더 큰 정보를 담고 있을 확률이 크다. ‘블라인드 소스 세퍼레이션(blind source separation, BBS)’이라고 해서 음원이나 소스를 분리하는 기술을 내부에서 개발중에 있긴 한데, 그렇게 되면 같은 시간에 존재하는 다양한 음원을 추적하는 것도 가능해진다. 이런 것도 내부 목표 중 하나로 잡혀 있다.

 

물론, 난이도는 있는 편이다. 이미지는 2D에 있고, 거기에서 각각의 부분이 무엇인지 규정 짓기는 편한 편이다. 그러나 소리를 라벨링할 때는 조금 더 시간과 노력이 많이 든다. 그런 부분 때문에 후발주자들에게 기본적으로 기술 개발 진입의 문턱이 높다고 판단한다. 리서치적으로도 오디오에 대한 지식이 많이 필요하다.

 

사운드AI에서 아직 풀지 못한 문제가 있다면?

방금 말한 것처럼 소리가 동시에 겹쳤을 때의 문제가 있다. 또, 지금은 저희가 대략 마흔가지 정도의 소리를 구분하는데 그걸 수백가지로 늘리는데 있어 준비되어야 할 부분이 있다. 딥러닝 모델을 효율적으로 SDK화 해야 하는 것도 과제다. 기업들로부터 SDK로 요청이 많이 들어오는데 디바이스마다 환경이 다르기 때문에 이를 솔루션화하는데 최대한 힘을 많이 쏟고 있다. 딥러닝 모델을 SDK로 만드는데 하드웨어적 제약이 아직 있으므로, 효율적으로 솔루션을 돌릴 수 있다는 것을 증명하는 것이 올해 주로 풀어야 할 문제다.

 

환경음을 모두 수집한다는 것에 대해 공포가 있을 수도 있다. 예컨대 요즘 같은 시국에 기침을 하는 것은 중대한 문제이고, 당연히 병원에 가야하는 일이다. 그러나 내 기침 정보를 내가 판단해서 병원에 제공하는 것과 AI가 수집해서 알려지는 것은 전혀 다른 문제다. 

맞는 얘기다. 우리 뿐만 아니라 AI 스피커 모두에게 해당이 되는 문제이기도 하다. 알렉사 가드의 예를 들자면, 사용자가 집을 떠나면 환경음 수집 기능을 켜고, 사용자가 집에 들어오면 그 기능을 끄는 걸로 시나리오를 풀려고 한다. 보통 프라이버시 침해는 사용자가 집에 있을 때 일어나므로, 사람이 집에 없을 때 위험을 감지하는 용도로 UX 시나리오를 만드는 것이다.

그래서 사람과 관련한 소리에 대해서는 조심스럽게 접근하고 있다. 그래서 비교적 이런 논란에서 자유로운 기계음 같은 것을 먼저 다루고 있기도 하다.

 

최근 벤츠 데모데이에서의 발표를 인상깊게 들었다. 벤츠와 협업은 어떻게 이뤄졌나?

왜 자율주행차는 보기만 하지 듣지는 못할까라는 생각으로 벤츠 해커톤에 참여했다. 그 결과물을 새롭다고 본 벤츠 본사가 ‘셀렉션 데이’ 참여를 제안해왔다. 다임러 그룹이 진행하는 엑셀러레이팅 프로그램에 참여할 스타트업을 선발하는 행사인데, 60개 업체가 왔다. 그중 오십개가 넘는 스타트업이 소재, 전장 등 자동차 맞춤 솔루션을 갖고 왔다.

반면, 우리는 없던 솔루션을 갖고 왔으니 이게 왜 필요한 것인지 왜 해야 하는 일인지부터 중점적으로 설명했다. 심사하는 사람 중에 오디오 전문가가 한 명도 없으니, 쉽고 재미있는 이용 사례에 집중해서 발표했는데 반응이 좋았다. 그래서 MBUX(Mercedes-Benz User Experience, 벤츠의 차세대 인포테인먼트 시스템)팀과 협업을 시작했다. 1월 중순 쯤에 1차 프로젝트가 끝날 예정이다.

 

벤츠와의 협력은 인포테인먼트와 관련된 것인가?

자동차는 (사람의 생명과 연결되어 있으므로) 검증이 오래 걸린다. 따라서 주행에 필요한 차량 내외부의 소리를 분석해 솔루션을 만드는 것보다 인포테인먼트로 먼저 서비스를 시작했다. 인포테인먼트 솔루션의 가시성을 먼저 검증하고, 더 무거운 주제로 나중에 넘어간다는 계획을 가지고 있다.

 

무거운 주제라면 어떤 것이 있을까?

예를 들면, 엔진같은 데서 소리적인 특성이 달라진다거나 자율주행차 부문에서도 굉장히 멀리서 들려오는 소리도(레이더나 라이더로 감별하기 어려운 정보를 포함해서) 마이크로폰의 성능만 받쳐준다면 감별할 수 있다.

앞으로의 계획은 어떻게 되나?

지속적인 매출을 만들어내는 비즈니스 모델을 만드는 것이 올해 목표다. 어떻게 보면 운이 좋은 스타트업이라고도 생각한다. 벤츠와 어떻게 이어졌냐라고들 많이 물으시는데, 테크기반 B2B 솔루션이라고 할지라도 목표나 생각을 항상 남들과 자주 이야기하고 공유하는 게 많으면 많을수록 이런 연결을 만들어내는 것 같다. 따라서 저희 기술이 유니크하지만 (생태계에서) 저희 시나리오가 (계획대로) 갈 수 있지 않을까라고 생각한다. 리서치 쪽으로는 궁극적으로 수백, 수천가지 카테고리로 넓혀가려 한다.

글. 바이라인네트워크
<남혜현 기자>

 

▶관련뉴스

 

www.mk.co.kr/news/economy/view/2021/01/8207/

 

스타트업 이끄는 오픈이노베이션…해외진출도 `성큼`

서울시, 국내외 기관·기업과 오픈이노베이션 행사 개최 기술 혁신·상생 생태계 조성

www.mk.co.kr

 

728x90

관련글 더보기

댓글 영역